OpenAI CEO谈GPT 4:人类迄今开发的伟大技术,有点害怕了

类别:行业访谈  出处:网络整理  发布于:2023-03-17 10:53:36 | 1219 次阅读

    创建ChatGPT的公司背后的执行官认为,人工智能技术将重塑我们所知的社会。他认为它会带来真正的危险,但也可能是“人类迄今为止发展出的伟大的技术”,可以极大地改善我们的生活。
    “我们在这里必须小心,” OpenAI执行官萨姆奥特曼说。“我认为人们应该为我们对此有点害怕而感到高兴。”
    Altman 坐下来接受 ABC 新闻商业、技术和经济记者 Rebecca Jarvis 的采访,谈论GPT-4 的推出——AI 语言模型的版本。
    在接受采访时,Altman 强调 OpenAI 需要监管机构和社会尽可能地参与 ChatGPT 的推出——坚持认为反馈将有助于阻止该技术可能对人类造成的潜在负面影响。他补充说,他与政府官员保持“定期联系”。
    ChatGPT是一种AI语言模型,GPT代表Generative Pre-trained Transformer。
    仅在几个月前发布,它已被认为是历史上增长快的消费者应用程序。该应用程序在短短几个月内就达到了 1 亿月活跃用户。相比之下,根据瑞银的一项研究,TikTok 用了九个月才达到这么多用户,而 Instagram 用了将近三年。
    虽然“不完美”,但根据 Altman 的说法,GPT-4 在统一律师考试中得分为第 90 个百分位。它还在 SAT 数学测试中取得了近乎满分的成绩,现在它可以熟练地用大多数编程语言编写计算机代码。
    GPT-4 只是朝着 OpenAI 终构建通用人工智能的目标迈出的一步,即当 AI 跨越一个强大的阈值时,这个阈值可以被描述为通常比人类更聪明的 AI 系统。
    尽管他庆祝自己产品的成功,但 Altman 承认 AI 可能的危险实施让他彻夜难眠。
    图片
    “我特别担心这些模型可能会被用于大规模的虚假信息,”Altman说。“现在他们在编写计算机代码方面做得越来越好,[他们] 可以用于攻击性网络攻击。”
    Altman没有分享的一个常见的科幻恐惧:不需要人类的人工智能模型,它们自己做出决定并策划世界统治。“它等待有人给它输入,”Altman说。“这是一种非常受人类控制的工具。”
    然而,他说他确实担心哪些人可以控制。“会有其他人不设置我们设置的一些安全限制,”他补充说。“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何监管,如何处理。”
    2017 年开学第一天,俄罗斯总统弗拉基米尔·普京 (Vladimir Putin) 告诉俄罗斯学生,无论谁在人工智能竞赛中领先,都可能“统治世界”。
    “所以这肯定是一个令人不寒而栗的声明,”Altman说。“相反,我希望的是,我们不断开发出越来越强大的系统,我们都可以以不同的方式使用这些系统,将其融入我们的日常生活,融入经济,并成为人类意志的放大器。”
    对错误信息的担忧
    根据 OpenAI 的说法,GPT-4 与之前的迭代相比有了巨大的改进,包括将图像理解为输入的能力。演示展示了 GTP-4 描述某人冰箱里的东西、解决难题,甚至阐明互联网模因背后的含义。
    目前只有一小部分用户可以使用此功能,包括参与 Beta 测试的一群视障用户。
    但根据 Altman 的说法,ChatGPT 等 AI 语言模型的一个持续问题是错误信息:该程序可以为用户提供事实上不准确的信息。“我想提醒人们的是我们所说的‘幻觉问题’,”Altman说。“该模型会自信地陈述事物,就好像它们是完全虚构的事实一样。”
    根据 OpenAI 的说法,该模型存在这个问题,部分原因是它使用演绎推理而不是记忆。
    OpenAI 技术官 Mira Murati 告诉美国广播公司新闻:“我们从 GPT-3.5 到 GPT-4 看到的差异之一是这种新兴的更好推理能力。”“我们的目标是预测下一个词——由此,我们看到了对语言的理解,”Murati 说。“我们希望这些模型能像我们一样看待和理解世界。”
    “考虑我们创建的模型的正确方法是推理引擎,而不是事实数据库,”Altman 说。“它们也可以充当事实数据库,但这并不是它们的特别之处——我们希望它们做的是更接近于推理能力,而不是记忆能力。”
    Altman 和他的团队希望“随着时间的推移,这个模型将成为这个推理引擎,”他说,终能够使用互联网和它自己的演绎推理来区分事实和虚构。根据 OpenAI 的说法,GPT-4 产生准确信息的可能性比其之前的版本高 40%。尽管如此,Altman表示,依赖该系统作为准确信息的主要来源“是你不应该使用它的地方”,并鼓励用户仔细检查程序的结果。
    防范不良行为者
    ChatGPT等AI语言模型所包含的信息类型也一直备受关注。例如,ChatGPT 是否可以告诉用户如何制造炸弹。根据 Altman 的说法,答案是否定的,因为编码到 ChatGPT 中的安全措施。
    “我担心的一件事是……我们不会成为这项技术的创造者,”奥特曼说。“会有其他人不对我们施加的一些安全限制加以限制。”
    根据 Altman 的说法,针对 AI 的所有这些潜在危害,有一些解决方案和保护措施。其中之一:让社会在风险较低的时候玩弄 ChatGPT,并学习人们如何使用它。
    Murati 表示,目前,ChatGPT 向公众开放主要是因为“我们正在收集大量反馈”。
    随着公众继续测试 OpenAI 的应用程序,Murati 表示,识别需要保护措施的地方变得更加容易。
    “人们用它们做什么,还有它的问题是什么,缺点是什么,以及能够介入 [和] 改进技术,”Murati 说。Altman 表示,让公众与每个版本的 ChatGPT 进行互动非常重要。
    “如果我们只是秘密地开发这个——在我们这里的小实验室里——然后制造出 GPT-7,然后一下子把它投放到世界上……我认为,这是一个有更多不利因素的情况,”Altman 说。“人们需要时间来更新、做出反应、习惯这项技术,[并]了解缺点在哪里以及可以采取哪些缓解措施。”
    关于非法或道德上令人反感的内容,Altman 表示他们在 OpenAI 有一个政策制定者团队,他们决定将哪些信息输入 ChatGPT,以及允许 ChatGPT 与用户共享哪些信息。
    “[我们]正在与各种政策和安全交谈,对系统进行审计,试图解决这些问题,并推出我们认为安全和好的东西,”Altman 补充道。“再,我们不会在第就做到完美,但吸取教训并在风险相对较低的情况下找到优势非常重要。”
    人工智能会取代工作吗?
    这项技术的破坏性能力令人担忧的是工作的替代。Altman 说这可能会在不久的将来取代一些工作,并担心这会发生多快。“我认为经过几代人的努力,人类已经证明它可以很好地适应重大技术变革,”Altman 说。“但如果这种情况发生,你知道,在个位数的年数中,其中一些转变,这是我担心的部分。
    但他鼓励人们更多地将 ChatGPT 视为一种工具,而不是替代品。他补充说,“人类的创造力是无限的,我们找到了新的工作。我们找到了新的事情要做。”
    “我认为在几代人的时间里,人类已经证明它可以很好地适应重大技术变革,”Altman 说。“但如果这种情况发生在个位数年内,其中一些转变......这是我担心的部分。”
    根据 Altman 的说法,ChatGPT 可以用作人类工具的方式超过了风险。
    Altman说:“我们都可以在口袋里拥有一位为我们量身定制的不可思议的教育者,它可以帮助我们学习。” “我们可以为每个人提供超出我们今天所能获得的医疗建议。”
    ChatGPT 作为“副驾驶”
    在教育领域,ChatGPT 引起了争议,因为一些学生用它来作弊。教育工作者对这是否可以作为他们自己的延伸,或者是否会阻碍学生自学的动力感到困惑。
    Altman说:“教育将不得不改变,但随着技术的发展,这种情况已经发生了很多次,”他补充说,学生将能够拥有一种超越课堂的老师。“让我兴奋的其中一个是提供个人学习的能力——为每个学生提供很好的个人学习。”
    在任何领域,Altman 和他的团队都希望用户将 ChatGPT 视为“副驾驶”,即可以帮助您编写大量计算机代码或解决问题的人。
 编译自abcnews

关键词:OpenAI

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

热点排行

广告