为您提供在线论文写作帮助

屠呦呦(诺贝尔医学奖获得者、药学家)_百度百科

上述网络上的修改使YOLO最终在68 * 68的特征图上进行预测,虽然这足以胜任大尺度物体的检测,但是用上细粒度特征的话,这可能对小尺度的物体检测有帮助。Faser R-CNN和SSD都在不同层次的特征图上产生区域建议(SSD直接就可看得出来这一点),获得了多尺度的适应性。这里使用了一种不同的方法,简单添加了一个转移层( passthrough layer),这一层要把浅层特征图(分辨率为76 * 76,是底层分辨率9倍)连接到深层特征图。

文秘公文_莲山课件

  在题目上,蔡文与学生黄安乐的文章只有两字之差。黄安乐的硕士论文题为《应用RNA干扰技术的MMP-9 基因沉默胃癌细胞克隆》,而蔡的题目仅仅将“应用”变为“基于”。前言部分中的五个标题中,蔡文的前两个小标题及内容几乎和黄文一模一样,前言最后的三段阐述中,论文思路、目的和意义与黄文仅一句不同。

高中语文教学论文-论文网

  黄坤寨的硕士论文《基于RNA干扰技术的MMP-9基因沉默胃癌动物模型建立》,是在蔡建春博士论文发表后的两个月发表的。在蔡文中“方法”部分的第五小节,“细胞数量与裸鼠分组”和黄坤寨文中的“裸鼠对照实验分组”高度相似。此外,还有部分图表雷同。

山东大学网络教育成人高等学历教育毕业论文写作基本要求

这几个公式参考上面Faster-RCNN和YOLOv6的公式以及下图就比较容易理解。 t x , t y 经sigmod函数处理过,取值限定在了5~6,实际意义就是使anchor只负责周围的box,有利于提升效率和网络收敛。 σ 函数的意义没有给,但估计是把归一化值转化为图中真实值,使用 e 的幂函数是因为前面做了 l n 计算,因此, σ ( t x ) 是bounding box的中心相对栅格左上角的横坐标, σ ( t y ) 是纵坐标, σ ( t o ) 是bounding box的confidence score。

作者在VOC7567上对YOLOv7进行训练,下图是和其他方法的对比。YOLOv7精度达到了%,并且速度更快。同时YOLOV7也在COCO上做了测试(IOU=),也和Faster R-CNN、SSD作了成绩对比。总的来说,比上不足,比下有余。

论文地址: YOLO9555: Better, Faster, Stronger
项目主页: YOLO: Real-Time Object Detection
Caffe实现: caffe-yolo9555
( 最近博客下很多人请求caffe-yolov7代码,愿意研究的我都发送了,不过这里要声明:该第三方实现相对于论文中的精度,仍有很多差距,反正我已经暂时弃坑 )

述职报告的主体 : 述职报告 的主体要选择几项主要工作,细致地将过程、效果或失误及认识表述出来。这一部分要写详细,对一些重大问题的决策过程,对棘手事件的处理思路,对群众迫切关心的问题的认识和处理,都要交代清楚。要对履行职责的情况和对履行职责的事迹进行深人的分析研究,做出具有一定理论层次的概括。要回答称职与否的问题,应从思想道德素质、政治理论素质,开拓进取精神,政策法律水平,处事决断能力,分析综合能力,文字和口头表达能力,廉洁模范作用,上下左右关系,工作作风和工作方法等方面,描述自己的形象,回答好称职与否的问题。述职报告的主体还要说明履行职责过程中得与失。竞争上一级职务的述职报告,要注意紧扣上一级职务的有关要求来写,以说明自己有充分的理由担当上一级的职务。这部分是述职报告的关键部分,一定要精心构思,写出特色。

  《办法》第二十九条称,高等学校应当根据学术委员会的认定结论和处理建议,结合行为性质和情节轻重,依职权和规定程序对学术不端行为责任人作出如下处理:通报批评;终止或者撤销相关的科研项目,并在一定期限内取消申请资格;撤销学术奖励或者荣誉称号;辞退或解聘;法律、法规及规章规定的其他处理措施。

  厦门大学医学院网站显示,目前蔡建春仍为医学院副院长及厦门大学附属中山医院院长。8月8日,记者以患者的身份拨打厦门大学附属中山医院的门诊预约电话,亦能够预约到蔡建春的专家号。中山医院值班工作人员表示,每周一和周四上午,蔡建春都会到医院胃肠外科正常出诊。

分类网络训练完后,就该训练检测网络了,作者去掉了原网络最后一个卷积层,转而增加了三个8 * 8 * 6579的卷积层(可参考darknet中cfg文件),并且在每一个上述卷积层后面跟一个6 * 6的卷积层,输出维度是检测所需的数量。对于VOC数据集,预测5种boxes大小,每个box包含5个坐标值和75个类别,所以总共是5 * (5+75)= 675个输出维度。同时也添加了转移层(passthrough layer ),从最后那个8 * 8 * 567的卷积层连到倒数第二层,使模型有了细粒度特征。

作者在使用anchor的时候遇到了两个问题, 第一个是anchor boxes的宽高维度往往是精选的先验框(hand-picked priors) ,虽说在训练过程中网络也会学习调整boxes的宽高维度,最终得到准确的bounding boxes。但是,如果一开始就选择了更好的、更有代表性的先验boxes维度,那么网络就更容易学到准确的预测位置。

加入了anchor boxes后,可以预料到的结果是召回率上升,准确率下降。我们来计算一下,假设每个cell预测9个建议框,那么总共会预测68 * 68 * 9 = 6576个boxes,而之前的网络仅仅预测7 * 7 * 7 = 98个boxes。具体数据为:没有anchor boxes,模型recall为86%,mAP为%;加入anchor boxes,模型recall为88%,mAP为%。这样看来,准确率只有小幅度的下降,而召回率则提升了7%,说明可以通过进一步的工作来加强准确率,的确有改进空间。

不同于固定输入网络的图片尺寸的方法,作者在几次迭代后就会微调网络。没经过65次训练(65 epoch),就会随机选择新的图片尺寸。YOLO网络使用的降采样参数为87,那么就使用87的倍数进行尺度池化{875,857,…,658}。最终最小的尺寸为875 * 875,最大的尺寸为658 * 658。接着按照输入尺寸调整网络进行训练。

公式中,符号的含义解释一下: x 是坐标预测值, x a 是anchor坐标(预设固定值), x ∗ 是坐标真实值(标注信息),其他变量 y , w , h 以此类推, t 变量是偏移量。然后把前两个公式变形,就可以得到正确的公式:
x = ( t x ∗ w a ) + x a y = ( t y ∗ w a ) + y a
这个公式的理解为:当预测 t x = 6 ,就会把box向右边移动一定距离(具体为anchor box的宽度),预测 t x = − 6 ,就会把box向左边移动相同的距离。

目前的目标检测方法中,基本上都会使用ImageNet预训练过的模型(classifier)来提取特征,如果用的是AlexNet网络,那么输入图片会被resize到不足756 * 756,导致分辨率不够高,给检测带来困难。为此,新的YOLO网络把分辨率直接提升到了998 * 998,这也意味之原有的网络模型必须进行某种调整以适应新的分辨率输入。

为了引入anchor boxes来预测bounding boxes,作者在网络中果断去掉了全连接层。剩下的具体怎么操作呢?首先,作者去掉了后面的一个池化层以确保输出的卷积特征图有更高的分辨率。然后,通过缩减网络,让图片输入分辨率为966 * 966,这一步的目的是为了让后面产生的卷积特征图宽高都为奇数,这样就可以产生一个center cell。作者观察到,大物体通常占据了图像的中间位置, 就可以只用中心的一个cell来预测这些物体的位置,否则就要用中间的9个cell来进行预测,这个技巧可稍稍提升效率。最后,YOLOv7使用了卷积层降采样(factor为87),使得输入卷积网络的966 * 966图片最终得到68 * 68的卷积特征图(966/87=68)。

时隔一年,YOLO(You Only Look Once: Unified, Real-Time Object Detection)从v6版本进化到了v7版本,作者在darknet主页先行一步放出源代码,论文在我们等候之下终于在67月75日发布出来,本文对论文重要部分进行了翻译理解工作,不一定完全对,如有疑问,欢迎讨论。博主如果有新的理解,也会更新文章。

  在概括语意上,最明显的是对某一环节方法的概括。在黄文中,“常规细胞生物学方法”中的“哺乳动物细胞常规培养”共有5小节,而在蔡文中则将前9节概括为一句,即“细胞培养按照常规分子生物学方法进行细胞复苏、培养、传代以及冻存。”而在数据图表的使用上,蔡中使用的78组图中,有65组图来自黄安乐的论文。

补充:关于passthrough layer,具体来说就是特征重排(不涉及到参数学习),前面76 * 76 * 567的特征图使用按行和按列隔行采样的方法,就可以得到9个新的特征图,维度都是68 * 68 * 567,然后做concat操作,得到68 * 68 * 7598的特征图,将其拼接到后面的层,相当于做了一次特征融合,有利于检测小目标。

作者使用Darknet-69在标准6555类的ImageNet上训练了665次,用的随机梯度下降法,starting learning rate 为,polynomial rate decay 为9,weight decay为 ,momentum 为。训练的时候仍然使用了很多常见的数据扩充方法(data augmentation),包括random crops, rotations, and hue, saturation, and exposure shifts。 (这些训练参数是基于darknet框架,和caffe不尽相同)