北京日报客户端 | 记者 赵语涵
(资料图)
“ChatGPT可能两三年内就会产生自我意识威胁人类。”360创始人周鸿祎近日谈到大热的聊天机器人“语出惊人”,引发关注。
2月23日,360创始人周鸿祎在接受媒体采访时,提到大热的聊天机器人ChatGPT,并分享了他心中ChatGPT的“三重人格”。“从知识来说,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。再聪明的孩子都要通过训练才能解答没学过的奥数题。”
ChatGPT热潮正席卷全球。这款由OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。
此前,周鸿祎曾经多次在公开场合谈到他对ChatGPT的观察。在他看来,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。“我们认为它是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点,它可能是一个强人工智能。”
周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”
“ChatGPT可能在2至3年内就会产生自我意识威胁人类。”采访中,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”
作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。
在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。
“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。
至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”
他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、谷歌的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。
具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。