Ethan Blog

Raise the bar

2018年度总结

2018回顾

2018年度总结 1-3月 学校实验室的项目基本都做完了,开始在搜狗实习,用C++和OpenCL写机器翻译模型,后来没什么新的事情就回学校准备春招 4-6月 四月中旬开始在百度PaddlePaddle实习,这期间见识到了很多厉害的人,跟了一位很nice的导师,有幸见证了新部门的成立。部门里工作节奏很快压力相对也较大,自己这段时间觉得成长也很多 ...

菊与刀-读书简记

日本民族性格研究

菊与刀 本书背景 背景部分引用了豆瓣读书:菊与刀的内容简介部分 1944年,本文作者受美国政府所托,完成一项针对日本民族性格的研究,并以此为二战后改造日本国家的指导。这本书就是该项目研究的成果。在本书中作者在简单叙述日本近代史的基础上,挖掘日本人矛盾性格的根源,并详细阐释日本人的”恩债”“人情”“义理”“忠孝”等理念,以及其他一些如幼儿抚养等生活习惯。尤为重要的是,作者在本书中...

我的第一本思维导图入门书-读书简记

学习工具

这是一本在豆瓣上看到的介绍思维导图的书,读过一遍之后感觉有用的内容比较少,其实完全可以看一些教程自学。在这里尝试用思维导图工具总结一下书里的内容XD,供感兴趣的同学参考 本文用的思维导图软件是MindNode

2stage目标检测(一):R-CNN

论文阅读笔记

Rich feature hierarchies for accurate object detection and semantic segmentation 写在前面 这篇文章是RCNN系列的开山之作,也是现代深度学习应用在目标检测最早的论文,发表在CVPR-2014上。 主要思想 文章一开始就说了R-CNN:是一种将region proposals(候选区域方法)与CNN结合起...

人人都是产品经理-读书简记

产品

人人都是产品经理 我为什么要读这本书? 今年4月到9月,在公司实习期间第一次接触到产品的概念,第一次了解到要以用户视角反思自己所做的工作。产品的好坏对一个项目的成败也起到了至关重要的作用,产品思维本身也非常有趣 其实产品的概念并不遥远,每天早晨八点,iPhone设置的闹钟响了,起床穿上淘宝上买的衣服,拿起在学校超市买的牙刷杯走到洗漱间,在飞利浦电动牙刷上挤上中华健齿白牙膏,开始感受电动...

Squeeze-and-Excitation Networks

论文阅读笔记

Squeeze-and-Excitation Networks 写在前面 本文发表在CVPR-2017上,Momenta基于本文模型的融合模型赢得了ImageNet最后一届比赛(ImageNet2017)的图像识别冠军 主要思想 作者的Motivation是显式地建模特征通道之间的相互依赖关系。并且在不引入新的空间维度来进行特征通道间融合的前提下,采用了一种全新的特征重标定策略,通过...

Aggregated Residual Transformations for Deep Neural Networks

论文阅读笔记

Aggregated Residual Transformations for Deep Neural Networks 写在前面 这是一篇发表在CVPR-2017上的论文,介绍了一种ResNet的升级版网络。相比于ResNet,在不增加参数数量的前提下,提高了性能表现:一个101层的ResNeXt网络和200层的ResNet准确度差不多,但是计算量只有后者的一半 主要思想 作者提出...

轻量级卷积神经网络(四):Xception

论文阅读笔记

Xception: Deep Learning with Depthwise Separable Convolutions 写在前面 本篇是由谷歌AI研究员、Keras作者发表在CVPR-2017上的一篇论文,文章基于Inception结构进行了改进,在不增大模型体积的前提下,有限提升了在ImageNet上的性能,较大提升了在谷歌内部数据集JFT上的性能 主要思想 文章由Incept...

轻量级卷积神经网络(三):ShuffleNet V1 & V2

论文阅读笔记

ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices 这是Face++的一篇研究轻量级CNN基础模型的论文,与MobileNet V1同样发表于CVPR-2017,但比MobileNet晚两个月在arxiv公开,性能方面在ImageNet数据集上top-1准确率比MobileNet高...

轻量级卷积神经网络(二):SqueezeNet

论文阅读笔记

SQUEEZE NET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE 写在前面 SqueezeNet由伯克利和斯坦福的科研人员合作发表于ICLR-2017,作者明确说了SqueezeNet不是一种模型压缩技术,而是”design strategies for CNN architect...