Sam Altman 众叛亲离,OpenAI 前董事万字分析他所忽视的 AI 安全风险!
https://img-blog.csdnimg.cn/direct/da3f72bedb664f189283632679bccba2.jpeg作者 | 王启隆、王轶群
出品丨AI 科技大本营(ID:rgznai100)
当 Sam Altman 得意于 OpenAI 抢走了谷歌热搜的时候,他应该没想到接下来一整个月的热搜不是 GPT-4o,而是他自己。
GPT-4o 发布仅一天后,惊动全网的产品突破锋芒就被内部团队变动和管理内部的爆料所掩饰。主张安全的 Ilya Sutskever 和 Jan Leike 两员上将相继去职,安全团队分崩离析,逐渐暴露的黑幕显示超级对齐团队在成立之处成立的20%算力早已让位于各种明星产品的练习开发。由此掀起的去职潮,黑幕爆料风波,纷纷指向了 Sam Altman 的领导自己。
为了商业长处,背离公司及团队的创始初志,违背诺言,向董事会有所遮掩等行为,让他的伤害一面逐渐显现。
在近期上线的《TED AI 秀》播客节目中,前 OpenAI 董事会成员 Helen Toner 再次爆料了 OpenAI 的宫斗黑幕,责怪了 Sam Altman 在安全方面的领导本领。
但是,Toner 并没有怒喷 Altman 40 分钟。作为乔治城大学安全与新兴技术中心战略总监,也是 OpenAI 主张安全大于商业长处的前董事之一,Helen Toner 更多是将重点放在向公众阐释她自己对人工智能安全题目的见解。她最后发起,每个人都有权利对技术的将来发展持有自己的见解,所以不要盲信大公司和专家,而是依靠自己的履历去探索,去形成自己的见解。
访谈内容如下:
https://img-blog.csdnimg.cn/img_convert/c6f11e7d04195a0f675c556dbf1c9b6a.png
Sam Altman 的谎言
Bilawal Sidhu(采访者):我是 TED-AI Show 的 Bilawal Sidhu,今天我要采访的是 Helen Toner,一位致力于 AI 羁系的研究者,她也是 OpenAI 的前董事会成员。在接下来的采访中,Helen 将初次揭破去年年底 OpenAI CEO Sam Altman 被解雇的幕后原形,并对他提出了一些相当严厉的批评。
让我们快速回顾一下:2023 年 11 月的一个周五,OpenAI 的董事会解雇了 Sam Altman。这起罢免事件在谁人周末一直是头条新闻,董事会称他没有做到“在沟通中始终坦诚”。
https://img-blog.csdnimg.cn/img_convert/a40e298386b3cdf503a53d7d22a230ed.png
随后的周一,微软公布聘请 Sam 领导他们的 AI 部门。许多 OpenAI 员工支持 Sam,并威胁要随他一同离开。与此同时,OpenAI 公布了一位暂时CEO。一天后,剧情反转,Sam 被重新聘用回 OpenAI。几位董事会成员被撤换或辞职,并被更换。自那以后,持续有后续影响。
截至录制本集时的 2024 年 5 月 15 日(TED-AI Show 的实际播出时间为 5 月 29 日),OpenAI 的首席科学家 Ilya Sutskever 正式辞职。Ilya 不但是解雇 Sam 的董事会成员之一,还是超级对齐(Super Alignment)团队的一员,该团队专注于缓解 AI 长期风险。
随着另一位高管 Jan Leike 的去职,许多本来注重安全的领导层人员要么离开了 OpenAI,要么转移到了其他团队。那么,这里面到底发生了什么?
OpenAI 在 2015 年作为非营利构造起步,自称为人工智能研究公司。他们只有一个使命,为人类的长处创造 AI。他们希望负责任地对待 AI,近距离研究风险,并找出如何最小化它们的方法。这将是一家向我们展示精确使用 AI 方式的公司。
https://img-blog.csdnimg.cn/img_convert/dc6fac61e325a1639082855381b66dcb.png
在微软的大量投资下,OpenAI 现在好像与谷歌处于某种科技军备竞赛之中。ChatGPT 的发布促使谷歌在去年匆忙推出了自己的聊天机器人 BARD。随着时间的推移,OpenAI 酿成了“CloseAI”。
从 2020 年发布 GPT-3 开始,OpenAI 克制了代码分享 —— 我不是说这是个错误。保持代码私有是有充实理由的。但不知何故,OpenAI 发生了变化,从一个有着利他目的的使命驱动型非营利构造,酿成了一个产品推新速度惊人的普通科技公司。这一轨迹显示了经济激励的气力有多么强大。
如今,AI 领域有很多钱可赚,但同样告急的是,利润不应该是决策的唯一驱动力。人工通用智能(AGI)有可能非常、非常具有颠覆性。这就是 Helen Toner 的工作职责。在 OpenAI 解雇并重新聘用 Sam Altman 不到两周后,Helen Toner 辞去了董事会职务。而她也是投票罢免 Altman 的董事会成员之一。当时内部观察仍在进行中,所以她被发起保持缄默沉静,并因此遭受了太多的批评。看着那时候的新闻报道和推特,我对她的最初印象是一个拦阻进步的技术悲观主义者,大概是一个利用安全政策作为武器的疯狂权力寻求者。
但后来,我在本年的 TED 大会上遇到了 Helen,我听到了她的说辞,并改变了印象。这让我思考了管理与羁系之间的区别。现在在我看来,OpenAI 的故事是关于 AI 董事会管理和一些非常智慧的人之间思考方式的错位。它还向我们展示了为什么信托科技公司自我管理并不总是会顺遂,这也是为什么我们需要外部规则和羁系的缘故原由。这是一个均衡。
Helen 已经对 AI 政策进行了大约七年的思考和写作。她是 CSET(Georgetown 大学的安全与新兴技术中心)的战略主任,与华盛顿的政策订定者互助处理各种 AI 题目。让我们接待 Helen。
Helen Toner:很高兴来到这里。
https://img-blog.csdnimg.cn/img_convert/43b41c67a826cf1711310b825ffe641f.png
Helen Toner
Bilawal Sidhu:Helen,几周前在温哥华的 TED 大会上,我从你那相识到了去年 OpenAI 大会上发生的事情的简短版本,你能透露一下全部情况吗?
Helen Toner:先让我们快速回顾一下配景:OpenAI 的董事会并非寻常。公司自己也不一般,其董事会是一个非营利性质的董事会,其明白设立的目的是确保公司的公共长处使命居首位,优先于利润、投资者长处及其他事项。
但多年以来,Sam 通过遮掩信息、误导公司内部发生的事情,在某些情况下乃至直接对董事会撒谎,使得董事会很难真正履行这一职责。
每当此时,大家总会问:“比如呢?给我举些例子。”
我无法透露全部细节,但我可以举例一些情况:
[*] 2022 年 11 月 ChatGPT 发布时,董事会并未事先得到通知。我们是从 Twitter 上得知 ChatGPT 的。
[*] Sam 没有告知董事会他持有 OpenAI 创业基金,只管他一直坚称自己是以无财务长处于公司的独立董事会成员身份存在。
[*] 在多个场合下,他向我们提供了关于公司少量既定安全流程的不精确信息,这意味着董事会几乎无法相识这些安全流程的实际运行效果,也不知道是否需要做出调整。
[*] 最后,我可以分享一个广为人知的例子,因为它已被媒体广泛报道 —— 我撰写的一篇论文,《Decoding Intentions Artificial Intelligence and Costly Signals》。这篇论文在媒体报道中被过分夸大了。
Bilawal Sidhu:我可以向各位读者介绍一下这篇论文:Helen 去年秋天与人合著了一篇旨在为政策订定者提供参考的研究论文。Sam Altman 对此并不满意。Helen 的论文好像对 OpenAI 持批评态度,而对他们的竞争对手 Anthropic 则更为看好。该论文发表之际,正值联邦贸易委员会(FTC)正就构建其生成式 AI 产品所使用的数据对 OpenAI 展开观察。基本上,OpenAI 一下子受到了大量批评和检察的压力。
Helen Toner:这件事与 11 月的那场风波关联起来的方式相当直接 —— 它与这篇论文的内容无关,题目在于论文发布后 —— Sam 从此以后开始向其他董事会成员撒谎,试图将我排挤出董事会。这是又一次严重损害了我们对他信托的例子。
实际上,这件事发生在去年 10 月尾,当时我们已经在认真讨论是否需要解雇他。另有很多个别例子,对于任何一个单独的案例,Sam 总能想出某种听起来无害的表明,说明为什么这没什么大不了的,大概被误解了等等。但最终的效果是,经过多年的这类事情,我们四个最终决定解雇他的董事得出结论,我们不能再信赖 Sam 对我们说的话了。
董事会因此陷入了完全无法运作的状态,尤其是作为一个本应为公司提供独立监督的董事会 —— 而不但仅是资助 CEO 筹集更多资金的那种董事会。
这就是去年秋季局势发展到谁人阶段的配景。我们一直在董事会层面尽最大积极创建更好的结构、流程等,试图办理我们在董事会层面遇到的题目。
然而,迁移转变点主要发生在去年 10 月,我们与数名高管进行了一系列深入交流,他们初次向我们吐露了与 Sam 交往的亲身经历,他们之前因感到不安而从未分享。他们表达了对 Sam 的不信托,特别提到了他营造出的克制工作环境。他们用“心理虐待”来形容,并明白表示不以为 Sam 是引领公司迈向 AGI(通用人工智能)愿景的合适领导者,坚信他无法或不愿改变,以为给予反馈徒劳无功,办理题目的积极也注定无效。
只管事后他们试图减轻这些言论的严重性,但那些对话绝非轻松随便,而是非常严厉,以至于他们提供了 Sam 在不同情境下撒谎和操控行为的截图和其他证据,证明所言非虚。这是一个影响深远的事件,牵扯了很多内容,所以我们在几周的时间里对此进行了非常密集的讨论,最终得出结论 —— 为了 OpenAI 的使命和构造自己,最好的做法是引入一位不同的 CEO。
一旦我们达成这个结论,我们就很清楚,只要 Sam 一有风吹草动,意识到我们可能做出对他不利的事情,他就会尽心尽力地利用一切手段来破坏董事会,阻止我们乃至到达可以或许解雇他的那一步。因此,我们非常谨慎,非常有计划地选择告知的对象,除了显然包罗我们的法务团队外,几乎没有人提前知道。这就是导致我们在 11 月 17 日接纳办法的缘故原由。
Bilawal Sidhu:感谢您的分享。现在,Sam 最终重新担当首席实验官,大多数员工都支持他的回归。究竟发生了什么?为什么会有这么大的压力要让他返来?
Helen Toner:是的,这显然是个避不开的话题,而且遗憾的是,外界对此有不少误解。我以为有三个关键点能资助我们理清这里的情况。
[*] 起首,很早就有人向公司内部传达了这样一种观点:只有两种选择,要么 Sam 立即无条件复职并拥有他自己挑选的全新董事会,要么公司就会面临崩溃。但实际上,情况并非如此非黑即白。我们最终达成的方案并不属于上述两者。可以明白,出于对公司的爱护——岂论是因即将从即将进行的收购报价中获益,还是纯粹热爱自己的团队、担心赋闲,或是对工作的投入——许多人不愿见到公司瓦解,我们也一样。
[*] 另一个被严重低估的告急究竟是,人们非常恐惊与 Sam 对立。他们亲历或听闻过 Sam 对批评者施加抨击的行为,因此对于可能招致的后果感到极度恐慌。所以,当部分员工提出“我们不能让公司垮掉,应该让 Sam 返来”时,那些有过不愉快经历的人很难发声反对,恐怕万一 Sam 真的继续掌权,他们的处境会变得难以忍受。
[*] 最后,我想指出的是,这着实一直是 Sam 存在的一个题目,并非初次出现。自去年 11 月以来的一些报道揭示,他实际上是被 Y Combinator 辞退的,这一事件当初被低调处理了。
https://img-blog.csdnimg.cn/img_convert/30a0017d3e24baf5d4aa8758f7771064.jpeg
Y Combinator 联合创始人 Paul Graham
在 Toner 的采访后发布了一则“辟谣”
他表示,Sam Altman 不是被「辞退」的
而是在 OpenAI 和 YC 之间做了个「二选一」
[*] 更早之前,在他仅有的另一份硅谷工作——在初创企业 Loopt 时,管理层曾两次向董事会提议解除他的职务,缘故原由是其“诱骗和制造混乱”的行为。审视他的过往记录,你会发现他的职业声誉并不光鲜。这个题目并不像他试图描绘的那样,仅是与特定董事会成员的个人冲突。
Bilawal Sidhu:OpenAI 这家公司一开始是想做功德,但现在却转向了营利模式,而且它确着实这场人工智能游戏中跑到了最前面,同时还陪同着一系列道德题目。
https://img-blog.csdnimg.cn/img_convert/83d10d6a4d49a2c8fb6cda506168fbde.png
前所未有的 AI 隐私危机
Bilawal Sidhu:我不得不问你一个题目,但这确实与我们今天要讨论的话题有关。
Helen Toner:好的,你问吧。
Bilawal Sidhu:从我的角度来看,人工智能从看似遥远的科幻事物酿成了几乎无处不在的事物,羁系机构也突然开始积极追赶。但我以为,对于一些人来说,需要羁系的理由可能并不显着 —— 比如对于普通人来说,我们可能会以为,我们现在只是有了像 Dall·E 和 ChatGPT 这样的很酷的新工具,可以做这些了不起的事情 —— 我们为什么还要羁系它们呢?
Helen Toner:对于技术较为初级的应用形式,我们有一些最基本的需求。比如,如果人们使用它来决定谁可以获得贷款、谁可以假释、谁可以购买房屋,确保技术的精确无误至关告急。
鉴于人工智能常伴有鄙视性题目,我们必须保障人们在遭遇不公的时候能有申说的渠道,让人们可以或许转头诘问:AI 为什么要做出这样的决定?
如果我们评论的是军事领域中的人工智能应用,那就是另一回事了,我不确定我们是否会说那需要羁系, 但显然需要有指导原则、流程等步伐到位。
展望将来,考虑到更先进的人工智能系统,我以为随着 AI 不停变得更加复杂,我们可能会看到一系列潜在的危害。如果任何一位在家自学编程的年轻人,都能把握国家级安全机构级别的黑客技能,这无疑是个隐患。
真正让羁系者难以思考人工智能的一个因素是,它涵盖了许多不同的事物,其中很多并不需要羁系。比方,像 Spotify 通过 AI 来决定如何制作你的播放列表这种事,我以为就不需要被羁系。我很乐意让 Spotify 随意为我挑选歌曲,即便选错了,也不要紧。但对于许多其他应用场景,你至少希望围绕它设置一些基本的知识性边界。
Bilawal Sidhu:比起战场,我更想讨论几个日常生活中的具体案例。
来谈谈监控技术吧。如今,人工智能在感知领域体现出色,几乎能精确分析图像、视频和音频的内容。并且,公共及私人区域的监控摄像头数量正在快速增长。大公司将 AI 融入到这些设备中,实质上是为这些几乎无处不在的、没什么用的老旧摄像头赋予了智能。
以纽约市的麦迪逊广场花园为例,他们利用人脸辨认技术阻止了与母公司 MSG 娱乐有诉讼纠纷的律师进入场馆观赛,这种有争议的做法显然引起了对隐私、正当程序以及该技术潜在滥用的担忧。我们能探究一下这个题目的症结所在吗?
Helen Toner:没错,我以为这在技术发展进程中是一个常见征象:社会中已有的事物,因技术进步而变得更快速、成本更低廉、遍及度更高。
比如监控技术,早先是邻人看到你做了什么不对劲的事,可能会告诉警察;再到后来,安装了闭路电视摄像机,警察随时能回放检查;直至本日,监控全天候运行,还参加了AI人脸辨认,将来乃至可能出现能标记可疑行为的AI行为分析器。
某种水平上,这并没有改变本诘题目——你的行踪会被人把握在手中。
但必须认识到,当技术变得无孔不入且成本低廉,情形就大不同了。一提监控,人们马上想到的是执法应用。所以关键在于,找出执法需求和过度使用技术之间的均衡。
比如,人脸辨认技术在不同群体间体现各异。有地方的警方仅凭人脸辨认匹配,不需其他证据就实行抓捕,有个案例就是讲一个孕妇被关押时正值临产期,仅仅因为人脸辨认错误就无辜被捕。
我的意思并不是主张全面克制,命令大家任何情况下都不应使用技术。但我们确实要审视这些题目:技术应该如何被应用?出错时会有哪些后果?受害者有哪些救济途径?他们该如何获得正当程序保障?至于私人用途,我以为我们应当更加审慎。
像你提到律师被驱逐的案例,显然就与言论自由、办法自由相悖。固然我不是律师,不清楚法律对此的具体规定,但其中暴露的公民自由和隐私题目显而易见。
Bilawal Sidhu:我以为现在存在一种趋势:最新的技术集成了更高级的功能,而广大大众却对此浑然不觉。近来有一个令我震撼的例子是,一段咖啡厅监控视频的画面中满是顾客和咖啡师,顾客的头顶显示了他们在店内停顿的时间,而咖啡师的头顶则展示了各自制作饮品的数量。
https://img-blog.csdnimg.cn/img_convert/49d70d25607c43830f06c40c791db193.jpeg
这背后意味着什么?显然,一是商家能在未经顾客知情或同意的情况下,跟踪顾客的驻留时长,深入相识顾客行为模式;二是商家能监控员工工作服从,乃至可能据此解雇服从较低的咖啡师。这背后隐蔽哪些题目和风险?这正当吗?怎么会这样?
Helen Toner:(笑了起来)简而言之,如果你在做人工智能政策方面的工作,着实会经常遇到这个题目,因为美国缺乏统一的联邦隐私立法。也就是说,关于企业如那边理数据,法律上几乎是一片空白。
在美国,由于受到掩护的个人数据类型以及掩护方式很少,过往有许多订定法律的尝试屡遭挫败。但眼下突然出现了一个低调推进的新势力(人工智能政策),所以人们看到了一丝成功的曙光。谁知道呢?大概这个题目正渐渐得到办理。但现在,这绝对是一个大大的毛病。
Bilawal Sidhu:我以为第一步是让人们意识到这一点,对吧,因为正如你所说,大众已经知道了在线追踪技术。但将同样的分析技术应用于现实生活中的物理空间,却需要破釜沉舟的勇气 —— 而且当我们走进任何一家杂货店时,我们乃至都不知道发生了什么。
Helen Toner:确实,这再次涉及到了规模与遍及水平的题目。这就比如你最喜欢的咖啡师知道你总是进来,坐在那里用笔记本电脑待上几个小时 —— 因为他们连续几周都看到你这样做。这与数据被系统性地搜集后,出售给国内外各大数据供应商并用于多种用途的情况截然不同。因此,当我们谈及如此庞大规模的数据时,基于现实人际交往的直观感受好像就难以适用了。
Bilawal Sidhu:别的,我还想谈谈诈骗题目。现在许多人都遭遇了电话诈骗,他们接到看似来自亲人的来电,内容是家人遭到绑架并索要赎金。实际上,这是不良分子利用市面上顺手可得的人工智能技术,挖掘受害者的交际媒体音频资料合成其声音。骗子随后利用这些素材制造出极具说服力的虚假电话,让人听起来就像是处于困境中或被囚禁在某地求救。当前我们已曝光了此类敲诈手段,但将来的趋势如何?又有哪些潜在威胁让你感到担心呢?
Helen Toner:显而易见,诈骗接下来会发展到视频领域。如果你尚未向父母、祖父母或生活中的非科技达人夸大:“你们必须鉴戒这种征象。” 那你应该立即去做。
我经常讨论有关政策以及我们在人工智能方面可能需要的政府参与或羁系。在许多方面我们都可以适应,不一定非要出台新的规则。我们曾经历过多次在线诈骗风潮,但最新的这波对受害者而言尤为恶劣。
但我也预料到五年后,这将成为人们非常熟悉的事情,只有少少数人仍然容易受到它的影响。所以我以为主要的是,对任何声音都要保持高度怀疑,尤其是不要在银行账户等事务上使用语音辨认。我很确定有些银行仍在提供这项服务 —— 那就放弃它。绝对要使用更安全的方式。
鉴戒视频诈骗的时候,要注意视频通话中看似真实的人物。近来有个案例,一个人到场了全是人工智能生成的虚拟人物参与的会议,唯有他本人是真实的,最终被骗取大量财帛(香港最大 AI 诈骗案:AI 变脸假冒 CFO,骗走 2 亿港元 | 极客头条)。所以这类诈骗案件即将发生。
Bilawal Sidhu:总而言之,基于内容的验证方式好像已经走到尽头了。
Helen Toner:的确如此。我们应当时常思考,现在的安全基准究竟在那里?现在有很多信息本来就是公开的,而且好像并未被滥用。比如,许多人的住址信息是公开可查的,已往另有电话黄页供人查询。再举个简朴的例子,比如快递员送货上门,或你去餐馆取预订的餐食时, 通常都不会导致可骇的后果。一切井然有序,方便快捷。
https://img-blog.csdnimg.cn/img_convert/befe0747b5f6cef2707275ad48817c04.png
我们永久不会拥有完美的办理方案
Bilawal Sidhu:接下来探究一下我们实际上能做什么。规制咖啡馆和餐馆之类的商业活动是一码事,遏制可能滥用此类技术的不法分子则是另一码事。法律和规定真的能掩护我们吗?
Helen Toner:固然,它们确实可以或许发挥作用,究竟上已经在起效。重申一次,人工智能涵盖浩繁领域,不存在单一的通用规范。许多现有的法律与规章已对人工智能有所涉及。
大家对于人工智能存在很多担忧(比如算法鄙视),这都是有正当理由的。然而在很多情形下,法律条文已明白克制基于种族、性别、性取向等因素的鄙视行为。在这些情况下,我们乃至无需订定新法或新增规定,只需确保相干部门拥有必要的人员设置,或许还需明白其在观察权限、处罚对象等方面的渺小调整。对于自动驾驶车辆,已有相应的管理规则,交通部门可以妥善处理,这都是公道的职责分配。至于银行业的 AI 应用,则有浩繁银行业羁系机构及其订定的系列规则。
我以为,在许多领域中,人工智能并非全新概念。现有的体系在应对这些题目上做得还可以,它们只是可能需要更多人员,或对其职能进行轻微调整。此外,在人工智能的前沿地带,随着系统本领边界不停拓展,能实验前所未有的使命,我们也面临着一些新挑衅,这要求我们考虑是否应创建规则,确保这些系统的研发和应用是负责任的。
Bilawal Sidhu:我尤其感兴趣的是,你是否遇到过一些特别奇妙或是能称为“良好羁系典范”的事例?
Helen Toner:这种事例可能“正在进行中”。我的意思是,我究竟上还没有发现哪个方案能真正完全把握住要点。
我们当前在人工智能领域面临的诸多挑衅,很洪流平上源于对技术本领及其将来五年内发展水平的不确定性。专家们对这些题目的看法分歧极大,这给政策订定带来了巨大难度。因此,我最为关注的那些政策倾向于点明这些疑问,资助我们更清楚地认识到技术所处的状态。
比方,去年十月下来了一项行政下令,内容广泛,其中一点是要求练习特别先进系统的公司必须向政府提交有关这些系统的特定信息。这是一种既不限定模型的构建或练习,也不要求政府审批的机制,而是通过信息共享增强透明度,并随技术演进而提高应对本领,所以对于政府跟进快速变化的技术而言是个巨大挑衅。此外,外界还出现了大量积极动向,致力于资助人工智能评估与衡量的科学研究。
判断人工智能现状的一大困难在于,我们很难确切衡量哪个系统更高效,很难对两个系统之间如何比力,并判断哪个系统是否可以称为更“智慧”。因此,已往一两年间,为增强政府在这一领域的资金支持和本领建立投入了大量关注,我以为这是非常有成效的。
Bilawal Sidhu:所以,政策订定者们肯定已经意识到人工智能了,并且很多人都对此感到担忧。他们想确保人工智能是安全的,对吧?但这并非易事。你之前说如何规范人工智能是很困难的,为什么会这样?是什么让人工智能管理如此困难?
Helen Toner:的确,我以为至少有三个缘故原由使这一使命极具挑衅性。
[*] 1. 人工智能覆盖广泛,它横跨多个行业,有许多不同的应用场景。我们很难全面相识它是什么、它能做什么、它将产生什么影响。
[*] 2. 人工智能处于持续演进之中,其技术本领与两年前、五年前乃至十年前相比已大相径庭。而政策订定者并不善于快速应变式的政策调整,他们并不像软件开发者那样敏捷。
[*] 3. 没有人能就它们是如何变化或将来将如何变化达成一致意见。当你扣问五位专家技术的将来趋势时,每每会得到五种截然不同,且常常是极其笃定但相互矛盾的答案。这一点同样给政策订定者带来了巨大困扰,因为他们需要依赖科学共识来指导决策,然而现实中的多样性观点却难以提供明白指引。
(笔者:Geoffery Hinton 和 Yann Lecun 作为人工智能的两大教父,有着完全相反的观点,后者前段时间还和马斯克吵了一架)
因此,我以为这第三点,即政策订定者难以确定应听取哪一方的意见、关注哪些题目,以及这些题目又将如何随时间演变,是人工智能政策订定中最为棘手的困难。
Bilawal Sidhu:谈到应听取谁的意见,我以为可以聊一下 AI 领域的大型公司。当你要求透明度的时候,大公司会以为“我凭什么让人窥视我们正在建立的东西的内部情况呢?”他们会称这是专有的。另一方面,这些企业或许渴望构建一种实际上利于自身并遏制将来竞争的政策与制度环境。
那我们该如何促使这些强势的企业积极参与并公平竞技呢?
Helen Toner:对于政策订定者来说,弄清楚如何与这些公司互动确实非常具有挑衅性,但另有部分缘故原由是他们缺乏深入探究题目所需的专长和时间。一个典范的参议员助手可能同时要处理技术、贸易、退伍军人事务、农业和教导等多个议题,这是他们职责的广泛性。因此,他们急需外界援助。
因此,我以为大公司介入 AI 管理工作并发挥作用是很自然的。同时,我也以为,如果政策订定者不相识技术运作原理,且未与受羁系企业沟通将来走向,他们也很容易做出错误决策。所以,难点就在于如何在听取这些企业意见的同时,均衡来自外界的声音,因为这些声音会指出大公司实际上是自擅自利的 —— 这就是重点,公民社会要有资源参与到这些对话中来。
大公司显然需要在 AI 管理中有一席之地, 但他们最好只拥有一席之地,而不是占据了 100 个座位中的 99 个。
Bilawal Sidhu:在实验方面好像也存在挑衅,对吧?现在市面上已经有很多 AI 模型开源了,所以一切都覆水难收了。那么,在闭源与开源共存、技术获取途径多样的配景下,我们也有可能像电影《1984》一样接纳全面监控的手段来羁系 AI 题目,要怎么避免这种极端情况?
Helen Toner:我以为没必要这么“二极管” —— 在彻底放任与全面监控之间存在着诸多中心路径。比如,有个非常受接待的开源 AI 模型平台叫 Hugging Face,它们在已往曾经将被以为是得罪性或伤害的模型等下架,这实际上在某种水平上减少了这些模型的使用,因为 Hugging Face 的宗旨就是促进模型的易获取性和易用性。
针对具体题目,如交际媒体平台,确实存在可接纳的步伐。正如你提到的,面对儿童色情、政治误导信息等题目,固然在创作阶段难以完全管控,但像 Meta(Facebook)、Instagram 这类公司已具备一定的机制来辨认、抑制并报告此类内容。尤其在图像和音频生成领域,业界也在围绕内容泉源认证或内容真实性验证渐渐进行一些有趣的倡议,这都是为了探究如何确认内容出处及其真实性。
所以,这是一个发展迅速、充满创新的领域。我以为,固然最终可能无法实现完美办理方案(即始终有手段能辨识 AI 内容的真伪),但通过这些技术与政策手段,能显著提升个人平静台的辨别本领。我以为我们永久不会拥有完美的办理方案,但社会的渐渐适应也是关键的一环,我信赖通过技术与政策的创新结合,我们可以或许有效地应对挑衅。
https://img-blog.csdnimg.cn/img_convert/bc8462b363e4dd0e0b777aae70faa36e.png
AI 不会毁灭世界,因为民气自会腐蚀
Bilawal Sidhu:如今有很多平台已经对 AI 生成内容进行了标注,这是件功德 —— 因为我以为普通人不应该成为深度伪造检测专家,这是平台的工作 —— 但如果真的有一个技术办理方案来办理这个题目,那就是最好的了。
这引出了我对将来的思考:你以为在 AI 领域里,最“反乌托邦”和最“乌托邦”的将来情形分别是什么样的?让我们先聊一聊“反乌托邦”的将来,一个羁系不力或糟糕的世界是什么样子?请为我们描绘一幅画面。
Helen Toner:可能性太多了。着实反乌托邦的世界可能与现在没有太大不同 —— 许多自动化系统在做很多事情,在社会中饰演很多告急角色,在某些情况下做得欠好,而人们没有本领去质疑这些决定。我记得从前曾在一场演讲里听过一种说法:如果有人因为算法题目失去了医疗保险,那对那位老人来说不是生存题目吗?已经有人们在非常严重的方式上直接受到算法系统和 AI 的影响,把 AI 用于战争就是正在发生的一种案例。
但最令我担心的一种将来走向 —— 这也是我直觉以为将来最可能发生的一种走向,就是《机器人总动员》式的将来。不知道你还记不记得那部电影。
https://img-blog.csdnimg.cn/img_convert/ad19732f79ae88a6c4fd857eed56a6b6.png
你可能忘了/没看过《机器人总动员》
但你应该认识“瓦力”
Bilawal Sidhu:我固然记得。
Helen Toner:我想聊的部分并不是电影里谁人酿成垃圾堆的地球,而是电影中的人们。他们整天坐在柔软的轮椅上四处滚动,有各种内容、食品和其他东西让他们感到快乐。
https://img-blog.csdnimg.cn/img_convert/2596bbad1da93b42ae90bcee777b6443.png
《新程序员007》采访Stuart Russell传授时
曾出现了完全雷同的比喻
传授说,想象满是灾难的反乌托邦式将来很简朴
但没人能精确描述充满希望的乌托邦将来
我的担忧在于,现实中人们每每倾向于寻求即时的欲望与选择,这与真正可以或许滋养心灵、构建意义深远生活的事物有所区别。商业驱动下,我们极易创造出仅能满意人们表面需求的产品,却无形中构筑了一个空洞、浮浅且缺乏内涵的世界 —— 而且在这个世界中,大部分告急的决策都由那些对作甚有意义的生活毫无概念的机器作出。
所以我假想的将来并非那种发生戏剧性大事件的将来,而是我们逐渐将越来越多的控制权交给越来越复杂的计算机,而它们对意义、美、高兴、成绩或繁荣等概念毫无明白 —— 更可骇的是,我们无法将这些概念编程给机器,因为我们自己也难以确切把握这些概念 —— 我希望我们不会走向这样的门路,但这确实有可能成为我们的将来。
Bilawal Sidhu:AI 可以利用我们的希望、愿望、焦急和担忧,不停地给我们提供类似垃圾食品的东西,无论是在营养方面还是在视听内容方面,这肯定会导致不良后果。让我们谈谈相反的情况,乌托邦的假想。在一个创新、羁系和社会繁荣之间达到完美均衡的世界里,会是什么样子?
Helen Toner:我以为,一个基本出发点是我们能否办理世界上的一些庞大题目?我确实以为人工智能可以资助办理这些题目。那我们能不能进一步想象一个没有天气变化困扰,能源充沛且价格低廉、大家得以享用,农业发达、粮食供应富足的世界?除此之外,我更感兴趣的是为我们的孩子、孙子和曾孙们设定条件,让他们自己决定将来应该是什么样子,而不是按照某种特定的愿景前进。
固然我这么说,但我绝对以为,人工智能有潜力为办理我们作为文明所面临的一些最大题目做出真正的贡献 —— 这话听起来很宏大,也是陈词滥调,但我是真心的。
Bilawal Sidhu:最后一个题目是,我们能做什么?
你确实提到了一些关于鉴戒 AIGC 内容的例子。但作为个人,在遇到、使用或乃至讨论 AI 时,我们可以做些什么?有什么发起吗?
Helen Toner:我最大的发起是,大家不必对技术自己或是技术专家感到畏惧。这是一项连业界顶尖专家都尚未完全把握其工作原理的技术。因此,如果对此感兴趣,就保持好奇心吧;如果你有创意的使用方式,不妨尝试;如果你心存顾虑,也完全可以表达你的担忧。关键在于,每个人都有权利对技术的将来发展持有自己的见解,无论是羁系者还是企业的 CEO,都无法全面预见这项技术将如何影响环球亿万大众的方方面面。所以,我信赖,依靠自己的履历去探索,去形成自己的见解,这应是最告急的发起。
https://img-blog.csdnimg.cn/img_convert/d3319673debee8254b89ad4288553e31.gif
开发者正在迎接新一轮的技术浪潮变革。由 CSDN 和高端 IT 咨询和教导平台 Boolan 联合主理的 2024 年度「环球软件研发技术大会」秉承干货实料(案例)的内容原则,将于 7 月 4 日-5 日在北京正式举行。大会共设置了 12 个大会主题:大模型智能应用开发、软件开发智能化、AI 与 ML 智能运维、云原生架构……详情
页:
[1]