芯片资讯
- 发布日期:2024-10-07 06:41 点击次数:54
霍金走了,去往另一个宇宙时空!
在生命的最后几年,他留给地球人类的,是关于人工智能的一系列警告和预言。
霍金曾说,“在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。”
他说,人工智能的崛起,要么是人类历史上最好的事,要么是人类文明的终结。
几年来,霍金通过大大小小的媒体采访,完整阐述了他对于人工智能发展的担忧与建议。网易智能整理如下:
霍金认同的:人脑与电脑没区别
霍金认为,生物大脑可以达到的和计算机可以达到的,没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。
霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。
霍金担心的:失控
一方面,霍金担心一些人利用人工智能做坏事,比如最大化使用智能性自主武器,它将助长战争和恐怖主义,加剧世界动荡局势。
另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争, 芯片采购平台将被取代。到那时,人工智能可能是人类文明史的终结。
霍金建议的:跨学科
霍金在演讲中说到,人工智能的崛起,是好是坏目前仍不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
但是霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。
霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
霍金所做的:调查研究
2016年10月,霍金在在英国剑桥建立了跨学科研究所“利弗休姆智能未来中心”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”致力于研究智能的未来,花费大量时间学习历史,深入去看。
2015年1月份,霍金与马斯克等一些人工智能专家签署了一份关于人工智能的公开信(这封公开信由“生命未来研究所”科学顾问委员会起草),目的是提倡就人工智能对社会所造成的影响做认真的调研,致力于让人工智能的研发人员更关注人工智能安全。
最后,霍金对全世界的人是说,“我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”
人工智能是成就人类,还是毁灭人类,等待着人类继续书写。
霍金留下这千年预言,在另外一个宇宙时空坐观。
亿配芯城一个现代数据共享的商城,让您收(获)满满,整板(BOM)配齐。
电话: 86-0755-82862036/ 13510757977 QQ: 2853094330
- 电子元器件呆料是如何处理的和最后到哪里去了?2024-03-07