3月22日,据《财富》杂志报道,AI领域的许多科技行业领袖并未深入考虑人工智能的长期影响,而是更多关注短期回报。被称为“AI教父”的杰弗里·辛顿指出,当前行业的核心驱动力在于短期利润,而非长期影响。他认为,研究人员通常关注的是眼前的问题,比如如何让计算机识别图像或生成逼真的视频,而非研究的最终结果。
辛顿长期警告AI的风险,并提出在实现超级智能后,AI导致人类灭绝的概率可能达到10%至20%。他区分了两类AI风险:一是坏人滥用AI,如虚假视频和网络攻击;二是AI本身成为不良行为者。辛顿认为,应对这些风险的难点在于每一类问题都需要单独解决。例如,可以通过溯源认证的方式对图像和视频进行标记,以遏制深度伪造的传播。对于AI本身的风险,辛顿提出应为AI设计类似“母性本能”的机制,使其对人类产生同情而非控制欲。

来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。