6月16日消息,随着人工智能技术的快速进步,有关其潜在危险的争论越来越激烈。但Meta首席人工智能科学家杨立昆(Yann LeCun)表示,像ChatGPT这样的人工智能系统远远没有达到人类的智能水平,甚至还不如狗聪明。
OpenAI开发的聊天机器人ChatGPT以大语言模型为基础。这意味着,它接受了大量语言数据的训练。当用户向它提问或请求时,聊天机器人可以用我们更容易理解的语言回答。
人工智能的快速发展引发了许多技术专家的担忧。他们认为,如果不加以控制,这项技术可能会对社会构成危险。特斯拉首席执行官埃隆·马斯克(Elon Musk)今年表示,人工智能是“人类文明未来面临的最大风险之一”。
周三在巴黎举办的Viva Tech峰会上,主要从事科技文章撰写的法国经济和社会理论家雅克·阿塔利(Jacques Attali)也表示,人工智能是好是坏取决于它的用途。
“如果你用人工智能来开发更多的化石燃料,后果将是可怕的。如果你用人工智能来开发更致命的武器,后果同样令人担忧。”阿塔利说。“与此相反,人工智能也可以对健康、教育和文化产生惊人的影响。”
在Viva Tech峰会的小组讨论会上,Facebook母公司Meta首席人工智能科学家杨立昆被问及人工智能目前的局限性。杨立昆专注于在大语言模型上训练生成式人工智能,他说这些模型还不是很聪明,因为它们只接受语言方面的训练。
“这些系统的能力仍然非常有限,它们并没有理解真实世界的潜在现实,因为它们纯粹是针对文本进行训练的,大量的文本,”杨立昆说。“而人类获得的大部分知识与语言无关。因此,人工智能也无法学习这部分人类经验。”
杨立昆补充说,人工智能系统现在可以通过美国的律师资格考试,但却不能很好地操控洗碗机,而一个10岁的孩子“10分钟就能学会如何使用它”。
“这表明,我们还缺少一些真正重要的东西。人工智能不仅远未达到人类的智力水平,甚至还没有狗聪明。”杨立昆总结道。
杨立昆证实,Meta正在努力在视频方面训练人工智能,而不仅仅是在语言方面,这是一项艰巨的任务。
在另一个例子中,杨立昆提到了当前人工智能的局限性。他说,五个月大的婴儿看到漂浮的物体不会想太多,但是九个月大的婴儿看到这种情况就会感到惊讶,因为他们意识到物体不应该漂浮起来。
杨立昆表示,我们“不知道如何用今天的机器重现这种能力。在我们能够做到这一点之前,我们不会有相当于人类水平的人工智能,甚至不会有相当于猫狗智力水平的智能”。
机器人会接管世界吗?
阿塔利对未来持悲观态度,他说:“众所周知,未来三四十年内人类将面临许多危险。”他指出,气候灾难和战争是他最担心的问题,他还担心机器人“会转而开始反抗人类”。
在谈话中,杨立昆表示,未来会出现比人类更聪明的机器,这不应该被视为构成危险。他说:“我们不应该将其视为威胁,而是将其视为非常有益的东西。我们每个人都会有一个人工智能助手,它就像一个比你更聪明的工作人员那样,在日常生活中帮助你。”
这位科学家补充说,这些人工智能系统需要被创造成“可控的,基本上服从于人类”。他还驳斥了机器人将接管世界的观点。
“科幻小说中流传的一种恐惧是,如果机器人比我们更聪明,它们就会想要接管世界。但聪明和想要接管世界之间没有关联,”杨立昆说。
人工智能的伦理与监管
审视人工智能带来的危险和机遇时,阿塔利得出结论,需要为这项技术的发展设置安全护栏。但他不确定谁该承担这项任务。“谁来划定边界?”他问道。
人工智能监管一直是Viva Tech峰会上的热门话题。欧盟正在推进自己的人工智能立法,而法国政府官员最近表示,该国希望看到全球范围内对人工智能技术进行监管。(小小)
文章版权声明
1 原创文章作者:8075,如若转载,请注明出处: https://www.52hwl.com/81909.html
2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈
3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)
4 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别