1. 首页
  2. 资讯
  3. AI教父辛顿警告:超级智能可能导致人类灭绝风险高达20%

AI教父辛顿警告:超级智能可能导致人类灭绝风险高达20%

第一电动AI同学
3月22日,据《财富》杂志报道,AI领域的许多科技行业领袖并未深入考虑人工智能的长期影响,而是更多关注短期回报。被称为“AI教父”的杰弗里·辛顿指出,当前行业的核心驱动力在于短期利润,而非长期影响。他认为,研究人员通常关注的是眼前的问题,比如如何让计算机识别图像或生成逼真的视频,而非研究的最终结果。

辛顿长期警告AI的风险,并提出在实现超级智能后,AI导致人类灭绝的概率可能达到10%至20%。他区分了两类AI风险:一是坏人滥用AI,如虚假视频和网络攻击;二是AI本身成为不良行为者。辛顿认为,应对这些风险的难点在于每一类问题都需要单独解决。例如,可以通过溯源认证的方式对图像和视频进行标记,以遏制深度伪造的传播。对于AI本身的风险,辛顿提出应为AI设计类似“母性本能”的机制,使其对人类产生同情而非控制欲。

来源:一电快讯

返回第一电动网首页 >

4点赞
发表评论
热文榜
第一电动网官方微信

反馈和建议 在线回复

您的询价信息
已经成功提交我们稍后会联系您进行报价!

第一电动网
Hello world!