GPT-4的黑箱运作方式引发科学家不满
发布时间:2023-03-22 12:56:41 所属栏目:动态 来源:
导读:科研人员对这项AI技术充满期待,但对其底层技术的秘而不宣感到不满。
上周,人工智能公司OpenAI推出了GPT-4——驱动其热门对话机器人ChatGPT的大型语言模型的最新版本。这个语言模型能根据几乎任何提示
上周,人工智能公司OpenAI推出了GPT-4——驱动其热门对话机器人ChatGPT的大型语言模型的最新版本。这个语言模型能根据几乎任何提示
|
科研人员对这项AI技术充满期待,但对其底层技术的秘而不宣感到不满。 上周,人工智能公司OpenAI推出了GPT-4——驱动其热门对话机器人ChatGPT的大型语言模型的最新版本。这个语言模型能根据几乎任何提示创作带有人类文笔的文本并生成图像和程序代码,而且表现十分惊艳。该公司表示,GPT-4在此基础上又有了很大的提升。 研究人员认为这些能力有望推动科研变革,但也有人感到不满,因为他们还没有使用权限,也不了解它的底层代码或是训练方式。科学家认为,这种情况下,人们对该技术的安全性会有顾虑,其对科研的帮助也不如预想的这么大。 “现在需要在等位名单上排队,还不能立刻就用上。”阿姆斯特丹大学心理学家Evi-Anne van Dis说。不过,她已经见过GPT-4的demo。她说:“我们在视频里看过他们演示GPT-4的一些能力,简直超乎想象。”她记得,有一次演示用了一个网站的手绘插画,GPT-4能根据这些插画生成构建该网站的代码, 已经证明它具有能将接收到的图像信息转化为有关输入图像的信息的能力。 美国罗切斯特大学的化学工程师Andrew White以“红队队员”(red-teamer)的身份优先体验了GPT-4。 OpenAI付费邀请这些红队队员测试该平台,他们会尝试让GPT-4做一些不好的事情。他说,他在过去6个月都可以使用GPT-4。“与之前几代相比,一开始它好像也没什么特别之处。” 当然,这些能力也伴随着隐忧。比如, GPT-4会允许合成危险化学品吗?利用White等人的输入信息,OpenAI的工程师再把这些信息“投喂”给他们的模型,让GPT-4避免生成危险、非法、有害的内容,White说道。 如果不公开训练所使用的数据,OpenAI关于安全性的担保在Luccioni看来是不够的。她说:“你不知道它用了哪些数据,你就无法优化它。我的意思是,把科研工作教给这样一个模型肯定是不现实的。” Bockting和van Dis还担心这些AI系统今后都会被大型科技公司收入麾下。他们希望这项技术能得到科学家的严格测试和验证。她说:“这里也有机遇,因为与科技巨头的合作能加快前进速度。”并且可以帮助创业公司更快地实现目标。 van Dis、Bockting和同事在今年更早时指出, 亟需建立一套“活”指南,指导AI和GPT-4等工具的使用和开发。他们担心关于AI技术的任何法规很难跟上AI发展的步伐。Bockting和van Dis已经组织4月11日在阿姆斯特丹大学召开研讨会,探讨上述问题,与会代表来自联合国教科文组织的科学伦理委员会、经济合作与发展组织、世界经济论坛等组织。 White认为,抛开种种顾虑,GPT-4及其未来迭代势必会重塑科学。他说:“ 我相信这将是科研基础架构的一次重大变革,堪比当初互联网带来的巨大震动。”它不会取代科学家,他说,但能协助科学家开展某些工作。“我认为我们将慢慢意识到,我们能把论文、数据程序、我们用的图书库与计算工作,甚至是机器人实验全部互联。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐
