Meta杨立昆:人类将是未来AI的主人而不是被其毁灭

内容摘要  杨立昆周二在GTC大会上表示:“嗯,在某些时候AI可能会取代人类,但我认为人们不会接受这种情况,对吧?我的意思是,我们会有一群超级聪明、出色的AI员工为我们工作。我不知道你们怎么想,但我喜欢和比我聪明的人一起工作。这是世界上最棒的事情。”  包括OpenAI的山姆・奥特曼和xAI的马斯克在内的人工智能行业领袖,

  杨立昆周二在GTC大会上表示:“嗯,在某些时候AI可能会取代人类,但我认为人们不会接受这种情况,对吧?我的意思是,我们会有一群超级聪明、出色的AI员工为我们工作。我不知道你们怎么想,但我喜欢和比我聪明的人一起工作。这是世界上最棒的事情。”

  包括OpenAI的山姆・奥特曼和xAI的马斯克在内的人工智能行业领袖,常常将超级AI的出现描述为人类的关键时刻,在这个时刻,科学创新将蓬勃发展,但也可能导致一场足以让人类灭绝的灾难。

  在2024年的一条X帖子中,杨立昆称超级AI接管人类的想法是“科幻小说里的老套情节”,是“一种荒谬的情景,与我们所知道的一切事物的运作方式背道而驰”。

  他在帖子中写道:“超级AI的出现不会是一个突然发生的事件。如今,我们还远没有一个能实现超级AI的蓝图。在某个时候,我们会想出一种架构,引领我们实现超级AI。”

  他说:“解决这个问题的办法是开发更好的AI。这些系统也许要有常识,具备推理能力,能检查答案是否正确,并且能够评估自己答案的可靠性,而目前的情况还不完全是这样。但坦率地说,我不相信会出现那种灾难性的情景。”(作者/陈俊熹)

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备2021030705号-4

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: