萤火虫儿 发表于 2023-10-7 14:30:51

入门机器学习/深度学习要多长时间?

研究生在读,实验数据通过手环采集,手环采集数据的主要模块是六轴传感器和温湿度传感器。之前老板还让我调研课题方向(多传感器啥的)。。。目前进度还停留在看手环端的代码,机器学习深度学习算法啥的都还没开始,不知道做个动作识别系统花费的学习时间要多长,怕做不完T.T

Llg 发表于 2023-10-7 14:30:59

以Python作为工具,首先先过一遍基本的知识:变量、数据结构、语法等;然后尝试使用这个知识点写一小段代码;入门后配合机器学习/深度学习视频教程,进行自己感兴趣领域的研究,几个例子:
Python环境下基于机器学习(多层感知机,决策树,随机森林,高斯过程,AdaBoost,朴素贝叶斯)的往复式压缩机故障识别(出口阀泄漏,止逆阀泄露,轴承损伤,惯性轮损伤,活塞损伤,皮带损伤等) - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/566923531
基于Python小波包能量谱的时序信号异常检测 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/566389130
基于Python概率密度函数分析的信号异常检测 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/566309389
基于python的包络谱信号分析 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/566167954
基于1D-CNN、2D-CNN,LSTM和SVM的一维信号分类 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/566132379
基于小波包和随机森林的uOttawa轴承数据集分类 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/565056591
我的现代信号处理、机器学习、深度学习配置环境 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/563463533
使用1D CNN对智能手表采集的少量心率振动信号进行分类 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/556643969
基于自编码器的语音信号降噪 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/556513015
基于小波包特征提取和随机森林的CWRU轴承数据集故障识别 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/556172942
基于python的Void-Kalman滤波方法 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/555127359
基于小波分解和卷积神经网络的图像识别研究 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/554876956
时间序列信号处理系列-基于Python的同步压缩变换 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/554189692
基于小波分析和机器学习的时间序列分析与识别 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/554097033
基于小波变换和机器学习的地震信号处理和识别 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/553158878
基于小波变换的稳健的单导联心电图 (ECG) 描绘 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/553061958
使用最大离散重叠小波变换MODWT和支持向量回归 SVR的金融时间序列预测 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/552759437
小波降噪基础-python版本 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/552373046
基于麦克风信号与随机森林的机器轴承运行状态识别 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/552366393
基于小波分析的打鼾(阻塞性睡眠呼吸暂停)检测 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/552210480
利用机器学习模型设计正交小波滤波器 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/537254014
同步挤压小波变换-尺度转换为频率 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/532206478
NASA涡轮喷气发动机风扇的剩余寿命RUL预测-基于传统机器学习 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/528098659
NASA涡轮喷气发动机风扇的剩余寿命RUL预测-基于LSTM网络,Lookback=20 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/52

lnfsmnb 发表于 2023-10-7 14:31:40

入门ML/DL,短则3个月,长则6个月,关键是选择正确的学习方法。
例如我就是通过研一上半学年自学,从0完成机器学习与深度学习入门,并在子方向NLP上实现进阶。
下面我从研一初始到毕业校招,为你规划了一条切实可行的学习路线。参考这个方法,在深度学习方向拿到offer进大厂,不是啥难事儿。
一、研一:基础理论学习

研一的主要工作是学理论,打基础。
当然,学校的课程基本属于科普讲座,很多内容仅靠上课是远远不够的。
这里我把第一年的学习任务细分了4个方向。
1)深度学习理论

基础不牢,地动山摇。没有扎实的基本功,无论是做科研还是做项目,都很容易捉襟见肘。
那怎样学习效率最高呢?
如果你觉得看大头书很枯燥(比如《深度学习》花书),我推荐你直接看吴恩达和李宏毅老师的深度学习视频课。
内容既权威又有趣,看完会让你觉得学习简直是一天中最快乐的事!

http://picx.zhimg.com/v2-a66ecbb9b09cfd17b7673b94289def1b_r.jpg?source=1940ef5c

吴恩达-深度学习

http://pic1.zhimg.com/v2-70cd1a2ed785ccfcf803a5b5844527af_r.jpg?source=1940ef5c

李宏毅-机器学习/深度学习

这些网课都有配套的编程练习,学一课做一课,养成好习惯,及时查漏不缺。
看完视频,如果想检测一下自己的学习效果,推荐你参考我之前的一篇回答,看看第一部分“理论基础”问题,自己能轻松解答多少。
如果你是面试官,你怎么去判断一个面试者的深度学习水平?
例如了解前向传播反向传播,以及链式求导;给一个两层的MLP和简单的二维向量,能推导出 forward propagation,再用 chain rule 推导出 back propagation。
2)确定研究方向

经过前面的理论学习,你应该发现深度学习领域有很多细分方向,例如语音、自然语言处理、视觉、强化学习、纯深度学习理论。
所以第二步我们要明确自己的研究方向,并在之后两年的学习中有所突破。
如果你喜欢语音交互,熟悉C++,可以选择语音识别、语音合成等研究课题;
如果你喜欢研究文本和对话,熟悉Python和爬虫,可以选择自然语言处理方向;
如果你喜欢图片与视频,熟悉Python,对算法落地也很感兴趣,可以选择计算机视觉方向;
至于强化学习、深度学习理论研究等方向,如果不是自身基础非常扎实或有优秀的师兄师姐指导,建议谨慎入坑。
这一步大家不要着急,既要了解不同方向,更要认真了解自己,包括能力、性格、特质。如果对自己研究领域没有热爱和兴趣,到了中后期会非常痛苦,即便再换方向,沉没成本也会很高。
好比让你挑一道菜吃十年,什么才会是你的首选呢?
3)阅读经典论文

选好方向之后,下一步的重点是阅读该领域的经典论文,包括传统方法,以及近期热点。
如果你和我一样主攻自然语言处理方向,那应该对最早期的神经网络语言模型(2003)、静态词向量word2vec(2013)、动态词向量ELMO(2018)、预训练语言模型BERT、RoBerta、GPT(2018-2020),以及近期流行的prompt训练(2021)都有清晰的认识,明白哪些场景适用哪种方法。
然后再往下细分,选择子领域内的论文阅读。
如果研究对话系统,对于常规的分类、匹配算法应该非常熟悉,同时了解基于神经网络的DST算法,不同召回策略等等。
还不知道怎么搜论文的同学,这里教你两种万能搜索方法。
1. 正向检索
在谷歌学术、arxiv、ACL Anthology输入英文关键词,检索相应主题的paper,注意查看发表年份和引用数量。
或者直接查找近年的survey文章,在综述中查看主要的研究分支和related work。

http://picx.zhimg.com/v2-91dae3eebd9e92477dcad79fdc86ee52_r.jpg?source=1940ef5c
2.反向检索
在谷歌学术的搜索结果页面,点击某一篇论文的“被引用次数”,跳转进入引用了该论文的所有paper。

http://picx.zhimg.com/v2-3a2b96d55ca1822a8be9edde2e0d1e2c_r.jpg?source=1940ef5c
底层逻辑是引用了A论文的其他论文,基本都和A论文所属的研究领域一致。
这两种检索方法,可以大幅提高查找文献的效率。
4)强化一门主流编程语言

通过以上3步,我们已经具有了相对系统的理论基础。然而“巧妇难为无米之炊”,有idea却无法通过编程实现,还是白搭。
所以接下来,我们要给军火库增添几样重型武器,包括一门主流编程语言(深度学习一般用Python),深度学习框架(推荐Pytorch),服务器调用(Linux指令),IDE使用(Pycharm或Vscode+jupyter lab)等。
有了这些工具,开发深度学习项目会方便很多。
而且从这几年大家都在卷的情况看,coding已是基本功,是技术岗通过面试的底线。
一边学习,一边每天在leetcode上刷2~3道算法题,校招找工作会事半功倍。
看完以上内容,如果你对DL基础学习还有疑问,欢迎添加我的个人vx交流:cs-yechen

进入研二,大家可选的路更多了。有的同学继续在实验室从事科研,以做实验发paper为目标,有的同学已经走出校园开始提前实习。
这两种选择没有好坏,关键要适合自己。最怕每天窝在宿舍吃外卖打游戏,毕业只多了张文凭。
二、科研与学术

有些同学是主动从事科研的,例如我身边就有本科发表顶会,硕士毕业已手握6-7篇CCF-A一作的巨佬。
也有导师不放实习,“被迫”滞留实验室的同学。研二时的我就属于这一类,虽然拿到了大厂实习offer,又被劝退重回学校搞科研。
总的来说,做科研四分靠实力,三分靠努力,还有三分天注定。
实力首先指理论扎实,具有敏锐的学术嗅觉,懂得挖掘idea;英语阅读、写作过关,用词地道,知道怎样写paper容易中稿;同时编程强悍,能快速迭代实验,验证结果。
有同学可能某方面薄弱些,可以通过大三大四以及研一研二的努力来弥补。
即便手握七成概率,paper能否中稿还和评审人的口味等“随机因素”相关,有一定运气成分。
所以做科研挺有风险的,如果忙活了2-3年没有论文投中,硕士生涯几乎等于nothing。
之前听一位985的师兄说,他们实验室有50多个深度学习方向的博士,每当夜深人静之际,经常能听到博士宿舍楼传来哭声(科研压力太大,没有达标数量的paper毕不了业)。
甚至还有博士生在实验室做实验,做着做着就哭了。

http://picx.zhimg.com/v2-64e8caf9d4b0779e06e475289b646505_r.jpg?source=1940ef5c
三、项目与实习

相比之下,在互联网公司找到一份实习要容易很多。
虽然内卷天天有,但只要研一没摸鱼,研二进一家第一第二梯队的大厂一般问题不大。再不济,也能去偏头部的创业公司。
在公司实习,主要是积累项目经验,把之前学习的理论落到实处。同时提前了解公司的管理流程、开发部署环境等等。
实习经历将会是简历的一大亮点,越来越多大厂开始更加重视实习。一段充沛的实习经历(3个月以上)丝毫不逊色于发表一篇顶会论文。

http://pica.zhimg.com/v2-c6620cae5ddf0c9569217489d933e554_r.jpg?source=1940ef5c
这是我导师部分学生的毕业去向,有很多学术大佬(阿里星,天才少年等),他们也会提前去公司实习。有的顺利转正,有的跳槽拿了更好的offer。
如上,走大厂实习转正是拿到校招offer的很好选择。部分大厂(如阿里)很多hc很早就预定给实习生转正了,走常规秋招难度要大很多。腾讯微信团队今年更是一步到位,所有录用同学必须先在微信实习,才能通过转正拿到正式 offer。
如果想实习导师却不放人,建议提早和导师沟通协调。如果只能留在实验室,赶紧看看有没有靠谱的项目,能提供指导的师兄师姐。
如果导师放养,又不让实习,还不给机器,那兄弟你只能自求多福了!
四、总结

研究生2-3年的时间非常短,如果热爱学术,想要对整个研究领域产生个人影响,建议先出门右拐读个博。
另外,深度学习也没有想象中的那么高大上。大部分业务导向的算法岗,很多时候在和数据分析打交道、跟各个部门对齐需求,真正让你训模型跑实验的比例其实很低。
在工业界,模型是否新颖不是最重要的,通过A/B测试,验证算法能给公司真正带来经济效益才是关键。
为什么还有那么多同学反馈算法面试好难呢?
因为僧多粥少,除了计算机,还有各个专业的同学一起往里卷,门槛自然水涨船高。因而有了“面试造火箭”的说法,公司也正好通过面试刷掉一批想浑水摸鱼的人。
从这个角度看,提早选择开发岗也是一种不错的折中。开发岗需求大,和算法的薪资差距也越来越小。
不管选择什么,认真了解自己,适合自己的才是最好的。

最后和大家分享一句话,千淘万漉虽辛苦,吹尽狂沙始到金。
无论什么岗位,成长、薪水、福利都是和付出成正比的。只有自己努力,才能在研究生阶段学有所成,收获满意的offer!
<hr/>最后和你正式介绍一下自己哈:
我是叶琛,一个爱旅行,懂养生的算法工程师兼干货答主,也是个喜欢用接地气的文风为年轻朋友分享互联网经验和算法知识的人。
原创不易,如有帮助请给 @Giant点个赞,谢谢~
平时工作较忙,如果你有学习规划 / 求职面试 / 考研咨询等相关问题,可以在上方的卡片发起咨询,我会尽力详细解答!

janbo 发表于 2023-10-7 14:31:54

1.李沐动手学习深度学习。跟着网上的教程敲下来,能让你对深度学习有一个基本的认识。期间可以适当看一些论文,时间大概在一个半月左右。
2.学习完之后就可以确定一个方向了。确定方向之后,最重要的事情就是先不断积累该方向的代码经验。具体以差异检测为例,如何找开源代码来跑呢。Github上有Awsome系列,把近年来数据集,网络结构,论文都总结了,能快速了解领域的发展。
3配环境->跑通->修改数据集/网络/… 然后就是不断重复这个过程,期间配合读代码对应的论文,结合代码食用,就能大大提升对论文的理解能力。所以一开始尽量读有开源代码的论文。否则读了之后你也不知道他具体做了什么工作。期间就做好文献管理和数据管理。
4 在3的过程中,逐渐可以搭建起自己的一套训练框架了。也摸清楚了自己的领域里大多数人都是怎么做研究的了。然后就可以不断尝试新方法了。思路主要有两种:1.在自己任务的Baseline上加模块,目的就是涨点 2.将其他领域上的方法借鉴过来解决一个特定的问题。两种思路各有优缺点,前者优点:思路比较明确,路子比较明确,就不断挑好的方法、模块去试;也正是因为这样,缺点就是,有时候真的挺难达到SOTA。后者优点:做的人可能比较少,竞争小。但是正是因为这样,才没有明确的路子,甚至连待解决的问题本身都是不明确的,这就需要自主地去探索。如何选择?这就得结合实验室基础和自身角度去选择了。
5在确定了要解决的问题,并且寻找到了一个解决办法之后,剩下的就是不断跑实验,积累数据。基本数据,对比数据,自身方法数据。跑出来一个基本的效果之后,感觉心里有底之后,就可以开始边写论文了。
<hr/>分享自己总结出的一句话:
“知识可以自学,但经验一定要借鉴!”

kimshow 发表于 2023-10-7 14:32:42

入门深度学习最简单高效的方式就是找一个自己感兴趣的方向,做一个demo出来,这个demo可以很简单,有可视化的结果就可以了,然后实现这个demo的过程就是入门的过程。
我说一下自己入门深度学习的经历吧。
我读硕士的时候,老师给的方向是图像描述(image captioning),简单说就是看图说话,给定一张图像数据,用简短的文字描述出这张图片的场景内容。因为image caption任务同时会处理两种模态的信息,一种是图像,一种是文本,所以会涉及到CV和NLP两种领域的知识,技术面会相对广一点,做的人比纯CV或者纯NLP相对少一点,这个方向也相对比较好发论文毕业。
其中CV方向涉及到的技术内容,主要是CNN去提取图像特征得到feature map,那么这里就需要去了解CNN的一些技术内容:

[*]convolution的计算过程是怎样的,感受野的概念,输出feature map的尺寸怎么计算,feature map的物理意义。
[*]一些特殊的conv,depthwise conv、group conv、deformable conv,dalited conv
[*]batch normalization在训练、推理阶段的计算过程,bn的作用。
[*]经典网络的构建,vgg,mobilenet,resnet,resneXt的构建。
除了用CNN去提取图像的feature map,在image caption中还能用fater rcnn这种两阶段的目标检测方式,去精细提取目标级的feature,会比CNN提取的feature map更加友好。那么这里就会涉及到目标检测的相关技术内容。

[*]faster rcnn检测方式的基本思想,RPN以及RCNN阶段的技术原理,RoIAlign、RoIPooling的计算过程,并且深度理解它们的物理意义。
[*]其实做到第一点对处理image caption任务已经足够了,如果想更全面的了解目标检测,内容还是很多,不多叙述。
涉及到NLP的技术内容:

[*]自然语言在计算机中如何表示,word2vec、word embedding怎么理解。做自然语言生成式任务时,RNN,GRU,LSTM这些模型的原理及各自的优劣势,训练方式是什么。
[*]词向量的表征方式ELMo的提出,18年新的架构transformer的提出,理解self-attention、multi-head attention、cross-attention、masked self-attention的计算过程,随后BERT、GPT的提出,用新的架构处理词向量的表征方式,提供高性能词向量的表征方式,加速下游各个子任务finetuning的速度。
理解了CV和NLP的关键技术内容,接着及时要了解怎么把两种不同模态的信息进行高效相互。这部分内容就是image caption论文所涉及的内容,需要你阅读大量论文,去理清整个image caption发展脉络。我之前写过一篇文章,介绍了几篇非常经典的论文思路。
图像描述(image captioning)深入解析其中一个核心解决的问题就是text在每个时间步中如何高效去对齐图像特征或者目标特征,随着transformer刚被提出的时候是处理机器翻译任务,image caption这个任务也可以看成是一个机器翻译任务,就是把一张图像翻译成一个句子,本质和机器翻译是差不多的。因此,另一个有意思的问题就是如何用transformer架构处理image caption任务,也可以结合LSTM和transformer一起去处理。
还有一篇文章是整理了image caption的一些资料,涉及到数据集,公开的顶会论文解读,和比较好的github代码仓库。
超全image captioning资料汇总以上差不多就是理论知识内容,深度学习是一门理论和实践相结合的学科,代码实践能力对于深度学习来说是非常重要的,所以入门深度学习必须重视代码能力。
我当时就是从
https://github.com/sgrvinod/a-PyTorch-Tutorial-to-Image-Captioning这个仓库中慢慢吃透image caption的代码实现,阅读代码的过程正好是你真正理解理论知识的体现,刚开始肯定是比较困难的,但是越往后,你会时不时有一种豁然开朗的感觉。
image caption是一个image to text的转化过程,是一种多模态的模型。现在正是多模态大模型非常火热的时候,如果你想学习前沿的大模型技术,真心推荐你们去了解一下「知乎知学堂」联合「AGI课堂」官方发布的:AI大模型公开课,两天时间,带你学习前沿的技术路线。像image caption这个任务现在ChatGPT已经具备了,并且它还能完成其他任务。你报名完之后记得添加助教小姐姐微信,可以领取免费优质学习资料,自己先整体学习一下,然后再跟着老师学习,这样效率会更高 。
从代码的角度来看,他涉及到的内容也是比较多的。我当时也没有系统去学习编程相关的东西,比如python语法啊,函数啊,类啊这些,我是在阅读代码的过程中不断去学习的,哪里不懂就去查,去理解,每个不懂的点都搞懂,然后自己去实现一遍加深理解,这样会相对来说快一点。比如PyTorch框架的使用,数据怎么用Dataset分装,模型怎么用Module写,模型分布式训练的使用等等。
所以从技术理论到技术实现这一整个过程下来,差不多就是入门深度学习的过程,当然我的这个方向同时涉及了CV和NLP两个领域,入门相对纯CV或纯NLP会慢一点,不过方法是差不多的。
以上就是我的小白经历。

dowtx.con 发表于 2023-10-7 14:32:48

现在无论是计算机专业还是其他的实体行业(机械、制造等等)对于人工智能的需求都还是蛮大的。所以现在也有很多人想入门人工智能,或者转行人工智能。其实人工智能是一个很大的方向,现在提到的人工智能基本上都默认以深度学习为主导的方法,但其实人工智能和深度学习的关系是:深度学习是机器学习的一个子集,机器学习是人工智能的一个子集。
那么现在深度学习这么火,答主就简单的出深度学习的角度来回答一下这个问题。
其实对于深度学习这个日新月异,每年爆发式更新模型的方向来说,学习路线的最尽头肯定是阅读你这个方向最新的论文,无论是科研人员还是已经走上工作岗位打算转行的打工人。阅读论文的来源一般是各种顶会(CVPR、ECCV、ICCV)、顶刊(TPAMI)。如果你嫌麻烦可以直接去谷歌学术或者 arXiv 上搜索你关注的内容,在搜索的时候最好把时间设定在最近几年。
说完学习路线的尽头,我们来看看入门的一些要求。对于入门深学习而言,你是必须掌握 Python 这门语言的,主要的原因是很多模型开源的代码都是基于 Python 实现的,而且目前针对深度学习的两个主流框架 pytorch 和 TensorFlow 都是支持 Python 开发的,也就是说深度学习的生态很大一部分是依赖 Python 的。所以说学习和掌握 Python 是入门深度学习必须的步骤,如果你不会也不用担心,入门 Python 还是非常简单的,目前知乎推出了一个基于 Python 的数据开发课程,如果你感兴趣的话可以购买学习一下,现在也不是很贵才一毛钱,以后可能就不好说了,所以直接买就完事了,也算是薅羊毛了。
好当你掌握了 Python,那么下一步就是去学习一些基础的数学知识了,因为如果一点数学知识都不知道的话后面论文中的公式你可能都看不懂,更不用提推导复现模型了。但你也没必要害怕,主要的就是基本的线性代数知识,也就是本科大一下学期学的,以及一些高等数学中的微积分知识。因为深度学习说的通俗一点就是大量的线代中矩阵运算和微积分中偏微分用于梯度下降。

http://picx.zhimg.com/v2-04da0cdc7de2a9889a62d1e159e5b1ea_r.jpg?source=1940ef5c
当你掌握 Python 编程和基本的线代知识以及微积分以后,你现在就可以去看看最基本的深度学习网络模型了。虽然说现在深度学习日新月异,但是目前的很多新模型都是基于这些基础模型上进一步创新和跨领域应用的。这些基本的模型不仅能带你理解深度学习,也能帮你打下坚实的基础,这对于你后面去理解新模型和创新是非常重要的
下面就从计算机视觉(二维图片处理、三维点云数据处理)、自然语言处理列举几个最基本的模型。
深度学习网络基础知识:正向传播、梯度下降、反向传播、常见的几个 LOSS 函数(损失函数)
开山鼻祖:FCN 网络(全连接神经网络)

http://picx.zhimg.com/v2-aa81373a0724ef24ffa06d6c67c3b3ab_r.jpg?source=1940ef5c
计算机视觉(2D 图片任务):
1.CNN(这个就不过多介绍了,已经是如雷贯耳了)
2.FCN(膨胀卷积,是分割任务中祖师爷般的存在)
3.RCNN 系列(目标检测任务霸主,现在很多下游任务还是会把 faster rcnn 当做骨干网络)
计算机视觉(3D 视觉点云或者体素任务):
1.PointNet/PointNet++(在三维视觉中基于点数据流派的开山之作)
2.VoteNet(何凯明在三维目标检测的力作)
自然语言处理方向:
RNN(这个模型年纪虽然可能比你都大(1982 年)但这并不影响他在 NLP 领域的影响力)LSTM(1997 年,是对 RNN 的一个改进版本)transform(这个不多说,现在真的是 transform 及其子孙模型大行其道的时代,光在自然语言领域卷还不够,现在都跑到计算机视觉领域来卷了)
当你读完上面论文,你就可以去专门的看你自己方向的论文了,希望这篇回答对你有所帮助。
原文作者:数学建模钉子户
使用 App 查看完整内容目前,该付费内容的完整版仅支持在 App 中查看
<a href="http://oia.zhihu.com/answer/2831110292/" class="internal" style="color: #0084FF;text-decoration:none;border-bottom:none;">🔗App 内查看
页: [1]
查看完整版本: 入门机器学习/深度学习要多长时间?