紧跟着刘润先生的管理学学习,整理了一样名目繁多笔记,和各位童鞋共享的。

TF.Contrib,开源社区贡献,新职能,内外部测试,根据反映意见改进性能,改善API友好度,API稳定后,移到TensorFlow核心模块。生产代码,以新型官方教程以及API指南参考。

治本是无可非议吗是道

统计分布。TF.contrib.ditributions模块,Bernoulli、Beta、Binomial、Gamma、Ecponential、Normal、Poisson、Uniform等统计分布,统计研究、应用中时常因此,各种统计、机器上型基石,概率模型、图形模型依赖。

1.管理学的原形是激发人的美意

每个不同统计分布不同特点、函数,同样子类Distribution扩展。Distribution,建立及团组织随机变量、统计分布基础类。is_continuous表明随机变量分布是否连。allow_nan_states表示分布是否接受nan数据。sample()从遍布取样。prob()计算随机变量密度函数。cdf()求累积分布函数。entropy()、mean()、std()、variance()得到统计分布平均值和方差等特性。自定义统计分布类设促成以上方程。

激励职工的善意,让员工主动,自驱动工作。能得这之未多但是有。比如谷歌、海底捞、罗辑思维。谷歌提供了任性、激发创意之条件与松动的员工福利,海底捞给予员工信任,像关心家人一样体贴入微员工,罗辑思维一样给每个职工最酷之自由发挥权。

Gamma分布。contrib.distributions导入Gamma分布,初始化alpha、beta
tf.constant,建立Gamma分布。batch_shap().eval()得到每个样本形状,get_batch_shape(),tf.TensorShape()。log_pdf()函数,值log转换概率密度函数。建立多维Gamma分布,传入多维alpha、beta参数。

这就是说怎么激励人的好心呢?从马斯洛需求理论切入,不同员工需求不同,激发善意手段自然不同。基层职工首先要包生理需求,金钱就是是最好好的激发手段。第二重合要求是平安要求,让职工发安全感,多发员工福利能让职工感到公司稳定,前景好。第三层需求是交际需求,满足员工社交需求,就要多设立员工活动,多起来聚会与晚会。第四层要求是讲求需要,这时候激励手段就是是叫员工觉得让青睐,在职责范围外与对应的授权,记住员工名字,多同员工沟通交流,尊重他的观点。最后一叠要求是自我实现,经典的案例就是是史蒂夫聘请百事可乐CEO斯卡利时,对斯卡利说的那么句,你是思念继承卖糖水也还是想念和自家一起转世界?

Layer模块。Contrib.layer包含机器上算法所待各种各样成份、部件,卷积层、批专业化层、机器上指票、优化函数、初始器、特征列。

员工处不同等级,激发善意手段使差,不要在职工还在考虑生理需求时就是同他摆理想,也不用在员工想如果自我实现阶段才供面包。

机器学习层。深度上与电脑视觉二维平均池avg_pool2d。np.random.uniform建立宽高都是3几乎张图片,contrib.layers.avg_pool2d()对图片很快建立3×3亚维平均池,outpu形状[5,1,1,3],对每个3×3区域取计算平均值。

【蔷薇思】激发职工爱心能给职工自驱动工作,激发别人的美意能叫他人主动帮扶而。我们无能够为别人作工钱,但要么得以发现别人其他马斯洛需求:帮朋友推荐工作,分享好信息,整合资源扶持朋友里牵线搭桥。做一个真诚、乐于助人的人,也许有同天朋友便见面雪中送炭。

起卷积层,contrib.layers.convolution2d()建立32个3×3过滤器卷积层,改stride、padding、activation_fn参数建立不同架构卷积层,使用不同卷咱们层激活函数。contrib.layers自动建立op名字,output.op.name值’Conv/Relu’,用了Conv层和ReLU激活函数。layer有协调对应op名字,每个op空间存储对应变量,contrib.framework.get_variables_by_name()得到相应op空间变量值。get_variables_by_name得到确立卷积层权重,权重形状是weights_shape值,[3,3,4,32]。

2.刺激要高于员工想象

contrib.framework
arg_scope减少代码重复使用。layers.convolution2d及传入参数放到agr_scope,避免重复在多单地方传入。normalizer_fn和normalizer_params,标准化方程及参数。

针对员工的振奋有点儿种,一栽是员工看“应得的”,一种植员工看“太好了”,让职工看太好了振奋才起作用。办公室饮水,工资,中秋节礼品还是应得的利,员工莫见面为此感恩涕零;绩效、升职加薪、在工作中得到自我实现、小节日的任意关怀、公司供健身福利,才见面让员工看最好好了;提供逾员工想象的振奋,激励才出意图。

len(tf.contrib.framework.get_variables(‘Conv/BatchNorm’))得到第一单Conv/BatchNorm层长度。

【蔷薇思】在成品打磨时,有一样久是设给用户有“aha
moment”感觉。如此用户才见面留下来。苹果手机、索尼耳机就被用户产生惊艳的痛感。我回忆的老二个例证是,为什么会发那基本上老年纪未婚女青年,因为他俩追求的是“太好了”的目标。

一心连接神经网络层fully_connected()。建立输入矩阵,fully_connected()建立输出7只神经单元神经网络层。tf.name_scope截下来运算放name_scope。fully_connected()传入scope。”fe/fc”层别号。传入outputs_collections,直接获得层输出。

3.制定目标,要“刚刚好”

repeat()重复用相同参数还建立有层。stack()用不同参数建立多个fully_connected()层。conv2d_transpose、conv2d_in_plane、separable_conv2d,参考官方文档。

尽管如此激励奖金诱人,但如若目标而月一样不可选择,同样达到不至激励效益。制度制定要被员工来力量及意愿完成,目标要是越一越能赢得,员工发出能力达。激励奖金而够深,让职工有意愿完成。

损失函数。tf.contrib.losses模块,各种常用损失函数,二类分类、多接近分类、回归模型等机器上算法。

【蔷薇思】公司制订目标而刚刚好,个人年度目标一致如果刚刚好,据统计,能成功新年心愿的食指不交10%,目标无法到位的一个重要原因纵然是目标太要命。新年伊始,壮志酬筹,想只要一如既往展开计划,于是大发心愿,今年使读100本书,成为工作及的大方,一年下来才念了相同本书,成为了办事达成之“砖家”,就是为无考虑对象落实之可能性。可知预估一项事的横周期,是凭谱的一个重要体现。化为一个领域专家,需要10000钟头刻意练习,每天2时,需要接近14年才会成功。

绝差值。tf.constant建立predictions、targets数排列。同样shape。选择性建立权重。losses.absolute_difference()计算预测损失价值。

仲触及,激励对个体同样有效。“先定一个力所能及上的略目标”,用好渴望已久远之国粹激励自己,效果特别美好。

算softmax交叉熵。多类分类机器上型。建立predictions、labels,多受。losses.softmax_cross_entropy()计算预测softmax交叉熵值。loss.eval()运行。loss.op.name得到TensorFlow自动赋值op名字,’softmax_cross_entropy_loss/value’。softmax_cross_entropy()
label_smoothing平滑所有标识。

#蔷薇记#: 记录在之美和聪明的妙。

动多数分布稀疏,sparse_softmax_cross_entropy()提升计算效率。

旋即是蔷薇石原创的第64篇文章。

特色列 Feature Column。tf.contrib.layers高阶特征列(Feature
Column)API,和TF.Learn API结合使用,建立最契合自己数的型。

多少连接特征(continuous Feature)、类别特征(Categorical
Feature)。连续数值特征称连特征,可径直用当范里。不连续种特征,需要数值化,转换为平密密麻麻数值代表每个不同类型。learn.datasets
API读入数据。

layers.FeatureColumn API定义特征列。real_valued_column()定义连续特征。

sparse_column_with_keys()处理项目特征,事先知道特征有可能价值。不掌握有或价值,用sparse_column_with_hash_bucket()转为特征列,哈希表。SparseColumn,直接当TF.Learn传入Estimator。

多少对应用,连续特征可能用给离散化,形成新品类特征,更好意味着特征跟目标分类项目中涉及。bucketized_column()将SparseColumn区间化。

局部用,多只特点综合、交互和对象分类项目关系再度紧凑。多个性状相关,特征交互能建更管用模型。crossed_column()建立交叉特征列。

特征列传入TF.Learn Estimator。fit()、predict()训练、评估模型。

赢得有特征加权求和作新特征列,weighted_sum_from_feature_columns()实现。

Embeddings,嵌入向量。稀疏、高维类别特征向量,转换低维、稠密实数值向量,和连接特征向量联合,一起输入神经网络模型训练及优化损失函数。大部分文件识别,先以文件转换成嵌入向量。

contrib.layers模块
embedding_column()迅速把高维稀疏类别特征向量转为想要维数的放到向量。特征交互矩阵比较稀疏,级别比较大,转换后方可假设模型更具概括性更管用。传入TF.Learn
Extimator进行模型建立、训练、评估。embedding_columns传入DNNLinearCombinedClassifier深度神经网络特征列。

过多事实上稀疏高维数据,通常有空特征和废ID,safe_enbedding_lookup_sparse()安全建立嵌入向量。tf.SparseTensor建立稀疏ID和稀疏权重。建立嵌入向量权重embedding_weights,取决词汇量大小、嵌入同量维数、shard数量。initializer.run()、eval()初始化嵌入向量权重。safe_embedding_lookup_sparse()将原本特征向量安全转移为低维、稠密特征向量。eval()收集至一个tuple。

属性分析器tfprof。分析范架构、衡量系统性能。衡量模型参数、浮点运算、op执行时、要求存储大小、探索模型结构。

命令安装tfprof命令行工具。bazel build -c opt
tensorflow/contrib/trprof/…。

询问帮助文件。bazel-bin/tensorflow/contrib/tfprof/tools/tfprof/tfprof
help。

尽互动模式,指定graph_path分析范shape、参数。bazel-bin/tensorflow/contrib/tfprof/tools/tfprof/tfprof
\–graph_path=graph.pbtxt。

graph_path、checkpoint_path查看checkpoint
Tensor数据及针对性应值。bazel-bin/tensorflow/contrib/tfprof/tools/tfprof/tfprof
\–graph_path=graph.pbtxt \–checkpoint_path=model.ckpt。

提供run_meta_path查看不同op请求存储、计时。bazel-bin/tensorflow/contrib/tfprof/tools/tfprof/tfprof
\–graph_path=graph.pbtxt \–fun_meta_path=run_meta
\–checkpoint_path=model.ckpt。

graph_path文件是GraphDef文本文件,用来以内存建立模型代表。tf.Supervisor写graph.pbtxt。tf.Graph.as_graph_def()或任何类似API存储模型定义及GraphDef文件。

run_meta_path文件是tensorflow::RunMetadata结果。得到模型每个op所需要贮存和时间吃。

checkpoint_path是范checkpoint包含有checkpoint变量op类型、shape、值。

op_log_path是tensorflow::tfprof::OpLog结果,包含额外op信息,op组类别名字。

tfprof是CLI命令行工具,输入tfprof命令按回车,进入相互模式,再比如回车看到令行参数默认值。

调剂参数,show_name_regexes查找符合正则式条件的scope名字。

tfprof提供零星栽档次分析:scope、graph。graph,查看op在graph里所花内存、时间。

参考资料:
《TensorFlow实战》

接付费咨询(150头条诸小时),我之微信:qingxingfengzi