反对@谢熊猫君 的高票答案。
翻译得很辛苦,也确实提供了有趣的视角,
但应该注明这是作家写的,而不是科学家写的。
文章引用的都是畅销书,而不是peer reviewed论文。
这种貌似严谨的文章最容易造成误导。
以下批评针对原文,不针对翻译。
没有回答“为什么名人让我们警惕人工智能”,只是提醒大家,不一定要警惕人工智能。
---------------------------------------
文中引用主要来自作家、哲学家、企业家,比如:
“未来学家”Ray Kurzweil,
哲学家兼畅销作家Nick Bostrom,
畅销书作家James Barrat,作家Carl Shulman,
企业家Jeremy Howard。
虽然上面的部分人曾经做过技术,不过后来都跑去卖概念了。
引用这些人真的没问题吗?
美国是个极端爱好bullshit的国家,
工业界金融界文化界很多人吹牛逼是不打草稿的。
全篇那么长,居然全是脑补,没有严谨论据和专家观点,挺不容易的。
引用的参考文献几乎全是畅销书,点开全是amazon上的卖书链接。。
咳咳,作家生活不易啊。
--------------------------------------------
文中真正“专家”的言论只有两处:
2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。
和
另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。
并且得出结论:
从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。 OMG..
第一个Bostrom的调查,请问“数百个人工智能专家”都是谁啊?
包不包括业内大牛啊,比如MIT的Patrick Henry Winston,Stanford的Richard Fikes之类的。
或者说上面提到的作家哲学家都是“人工智能专家”?
第二个调查在“强人工智能年会”上做的,
知道啥叫幸存者偏差吗?都去参加“强人工智能年会”了当然对强人工智能是乐观的啊,
就好像去天主教堂调查宗教信仰,结论是90%人都信上帝一样可笑。
另外这个年会是个神马玩意啊,为啥我搞AI的朋友都没听过啊。
不会是这个会吧(
The Eighth Conference on Artificial General Intelligence),
恩恩,主席是Ben Goertzel,应该没跑了。
不过这个Ben Goertzel好像不是科学家啊,
任职于一个金融公司,建立了一个IT公司,写了几本畅销书。。
跟学术有关的职位有两个,
一个是奇点大学(
Singularity University)的advisor,专门研究人类什么时候会被计算机干掉的地方。。。好科幻啊。。。
另一个是Research Professor in the Fujian Key Lab for Brain-Like Intelligent Systems at Xiamen University。。。中国人民的好朋友啊。
我个人的观点,他的研究不能支撑他做出的预言,你们感受一下。
---------------------------------
强人工智能是有可能实现的,但是现在的技术离强人工智能的距离还非常远。
原文中第一个图很有意思,就是技术发展曲线。
全文的所有论据,都建立在“指数发展”这个假设上。
指数曲线在接近0的时候是类似线性的,
不光是指数,多项式函数、对数函数、甚至多重指数在小范围内也可以用线性拟合得很好。
而且不同的指数和在0附近都很接近,
但对“奇点”何时到来的估算可能误差千百年。
如果按照“指数发展”来算,而且乐观的估计指数的系数,
那你妹的什么技术都不是问题啊,人类分分钟占领全宇宙。
我更相信的是,科学发展是有爆发期和稳定期的。
一个技术突破会带来难以想象的繁荣,之后的科学发展都比之前的更快,
但不会天天都是技术突破。
比如,二十世纪上半页的物理学十分辉煌,相对论和量子力学的建立引发了一系列技术革命。但从那以后物理学一直很平稳。
杨振宁就说过他赶上了物理学的好时候,让他现在做学术,可能就不会选物理学了。
要是科幻作家站在1950年前后,用指数发展估计物理学的发展,
那到今天我们早就弄出大统一理论搞定核聚变发电了。
又比如人均寿命从先秦时的二十几岁发展到现在的80岁,如果用指数拟合,
那过几十年是不是要活几百岁了啊?
--------------------------------------
文中提到的可能支持人工智能指数发展的路线包括:抄袭人脑,进化算法,电脑自己解决。
我不知道这几条是不是对应类似machine learning, neural network, evolutionary algorithm, program synthesis之类的领域。
如果是的话,这几个领域我都有一点粗浅的了解。
欢迎大神批评补充。
比如machine learning和neural network, 核心都是回归和数据拟合,离智能化还很远。
大牛Andrew Ng的网课,
Coursera - Free Online Courses From Top Universities光靠这个实现强人工智能我是不信滴。
关于evolutionary algorithm,去年有一个大牛的talk,推荐大家看一下。
全篇都是技术讨论没有涉及“奇点”,大家可以自己判断现在的研究前沿离真正的强人工智能还有多远。从43分钟开始:
Dana Scott: VSL Opening & Christos Papadimitriou: VSL Keynote Talk "Computational Ideas and the Theory of Evolution" on Vimeo
program synthesis里,现在计算机能自己生成的程序还很弱智,
而且算法复杂度都是exponential time甚至doubly exponential time(比如)的。
用的方法本质上是先靠程序员输入一个程序模板和参数空间,
然后用各种方法遍历所有可能的程序,看看是不是满足要求。
这其实引出了一个很有意思的问题:
现在我们CPU的计算能力是指数增长的,
但按照今天的算法,许多真正有趣的问题都是需要“指数时间”,甚至多重指数时间才能解决的。
那么,我们实际解决新问题的速度一定是指数发展的吗?
让该领域内的专家来介绍现在的研究成果和面临的巨大问题,
比起作家自己泛泛而谈要好得多。
--------------------------
其他反对的观点其实也不少,
比如可以参考这篇文章
Hyping Artificial Intelligence, Yet Again等有空我可能会翻译一下。
麻烦高票答案加上“本文代表部分业内观点,不具有普遍性和权威性”,
以免误导不明真相的群众。 |