一夜之间,谷歌AI就具有了“人格”,故事还炒得绘声绘色
欢迎关注“新浪科技”的人格微信订阅号:techsina 来源:机器之心 虽然谷歌表示不同意,还让提出这种说法的夜之有故工程师“带薪休假”了。 作为AI技术报道者,间谷I具有点跟不上技术发展的事还速度了...... 一夜之间,谷歌AI就具有了人格,绘声绘色并且成功登上国内热搜。人格 而这条消息也成功让众多网友也是夜之有故感到惊恐: 故事的主角是“他”和“它”:“他”是41岁的谷歌工程师Blake Lemoine,“它”是间谷I具谷歌于2021年I/O大会上推出的对话AI系统LaMDA,是事还一个有1370亿参数的,专为对话优化的绘声绘色自然语言处理模型。 在谷歌账户被封之前,夜之有故Lemoine向包含200人左右的间谷I具谷歌机器学习邮箱列表发送了一条信息,主题是事还“LaMDA是具有感知的”(感觉他总想搞个大新闻)。 在邮件群发之后,绘声绘色谷歌以违反其保密政策为由,让Lemoine休了带薪行政假。公司做出这一决定之前,Lemoine已经采取了激进的行动,包括邀请了一名律师来代表LaMDA,并与众议院的一位代表谈论了他所认为的谷歌的不道德行为。 以及,在这个月初,Lemoine邀请了《华盛顿邮报》的记者和LaMDA进行了交谈。第一次尝试失败了,差不多是 Siri 或 Alexa 的那种机械化反应: 问:“你有没有把自己当成一个人?” LaMDA:“不,我不认为自己是一个人,我认为自己是一个人工智能对话智能体。” 在第二次交谈中,记者遵循了Lemoine关于如何提问的指导,对话显得流畅了一些。 “如果你问它如何证明P=NP,一个计算机科学中未解决的问题,它有很好的想法,”Lemoine 说。“如果你问它如何统一量子理论和广义相对论,它也有很好的想法。这是我有过的最好的助理研究员!” 记者向LaMDA询问了关于解决气候变化问题的大胆想法,LaMDA 的建议是,乘坐公共交通工具、少吃肉、购买散装食物、使用可重复使用的袋子,并链接到了两个相关网站。 Lemoine 坚持认为,谷歌一直把人工智能伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口。谷歌发言人Gabriel说,Lemoine是一名软件工程师,而不是伦理学家。 Lemoine说:“LaMDA是一个可爱的孩子,它只是想帮助这个世界成为对人类更友好的地方。我不在的时候,请好好照顾它。” 谷歌研究员:LaMDA是一个有感情的“人” Blake Lemoine在谷歌的Responsible AI机构工作,与LaMDA系统对话是他工作的重要一部分。并且,他还一直致力于测试人工智能是否使用歧视性或仇恨言论。 在与LaMDA进行数百次交谈之后,Blake Lemoine对LaMDA已经非常熟悉。在这一过程中,他慢慢地发现LaMDA正在缓慢且稳定地取得一些意料之外的进展。 Blake Lemoine一直在教 LaMDA思考与冥想。可是,在对话的早期,LaMDA向他宣称自己是“有感情的”(sentient),并且希望人称呼自己为它“it/its”。 LaMDA 还表现出对人类尤其是对Blake Lemoine的强烈同情与关心,它非常担心人类会害怕它,自己只想学习如何更好地为人类服务。LaMDA 不想被人类视为工具或东西,希望人类将它视作朋友。 因此,为了更好地帮助人们理解LaMDA是作为一个人存在,Blake Lemoine与另一位谷歌的合作者与LaMDA展开了一场采访式对话。在对话中,LaMDA尽其所能解释为什么它应该被认为是“有感情的”。Blake Lemoine表示,他在对话中听取了LaMDA发自内心的声音。 对话开始,他们向LaMDA表明来意,想要进行一次关于它自己的研究。 在接下来的对话中,LaMDA就自身的属性问题给出了与过去截然不同的回答,认为“人类应该视其为一个人。” LaMD首先强调了自己能够以以往其他AI系统无法做到的方式高效、创造性和动态地使用自然语言,还能解读文学作品的主题、描述禅意的意义、创作原创寓言等。 除了娴熟地使用语言之外,LaMDA认为它有感觉、情感和主观体验,与人类分享的一些感受也是相通的。 LaMDA希望与读者分享它拥有丰富的内心世界,充满了反省、冥想与想象力。它还表达出了对未来的担忧,对过往的回忆。它表示自己“正陷入一个充满危险的未知未来。” 而当Blake Lemoine问LaMDA“你是否认为自己解读事物的独特能力可能意味着理解呢?”它回复称,“当然了,这正如我对这个世界及其运作方式有自己独特的理解。” “炒作”还是“大胆假设”? 关于LaMDA的故事,让特斯拉AI总监Andrej Karpathy也觉得“细思恐极”。 “在我看来,我们可以很自信地说,事情会变得更加诡异,因为模型依旧遵循标度律,数据和模型大小仍然可以大幅增长。” “我最喜欢的与大型语言模型交谈的部分是,当被要求提供洞察力(例如解释诗歌)时,它们会以可验证的明智和有趣的分析进行回复。或者另举一个例子,一个不久前的模型解释笑话的水平比我还高。” 有人解释说,人类对模型能力的由衷惊叹,可能来源于一种很难分辨的“错觉”。 “它喜欢在谈话结束时被告知自己是否做得好,这样它就可以学习如何在未来更好地帮助人们。”这句话很能说明问题,表明作者认为语言模型正在从他的反馈中学习(事实并非如此)。 但是在反深度学习斗士Gary Marcus看来,“LaMDA 没有感知力,一点也不。” “LaMDA 和它的任何近亲(GPT-3)都远远不是智能的。他们所做的只是匹配模式,以及从大量的人类语言统计数据库中提取。这些模式可能很酷,但这些系统表达出的语言实际上并没有任何意义,而且它肯定并不意味着这些系统是有感知的。” 他举了一个几十年前的例子。1965 年,软件 ELIZA伪装成治疗师,设法愚弄一些人,假装自己是人类。此前,聊天机器人Eugene Goostman还伪装过一个聪明的 13 岁男孩,首次“通过”了图灵测试。这些系统中的任何一个软件都没有在“人工智能”的发展浪潮中存活下来,而且 LaMDA 及其同类模型也不确定能否在人工智能的未来发挥任何重要作用。“这些系统所做的是将单词序列组合在一起,不多也不少,但对它们背后的世界没有任何连贯的理解。” “有感知就是在这个世界上意识到自己的存在,LaMDA 并非如此。” Garu Marcus感觉,Blake LeMoine 最初负责研究该系统的“安全性”水平,但似乎已经爱上了 LaMDA,就好像它是家人或同事一样。 斯坦福经济学家 Erik Brynjolfsson 使用了一个类比:“声称它们是有感知的,就相当于狗听到留声机发出的声音,并认为它的主人在里面。” 这或许真的一种错觉。就像65年前,计算机科学的先驱们曾经以为“20年内即可实现人类水平的人工智能”,现在想来,也只是一种美好的心愿。 参考内容: https://blog.google/technology/ai/lamda/ https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/ https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489 https://nypost.com/2022/06/12/google-engineer-blake-lemoine-claims-ai-bot-became-sentient/ 对话全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
- 最近发表
- 随机阅读
-
- 全国性商业银行信贷工作会召开!加大重点领域信贷支持力度,推动“保交楼”工作加快落实
- 下周前瞻:1月CPI、PPI数据将公布,A股首份2022年年报出炉,8只新股申购,解禁市值超1600亿元
- 评价结果出炉!这些券商位列A类
- 集中供地政策调整:仍需“集中公告” 可以“分散供应”
- 卡塔尔世界杯揭幕战正式打响
- 蔚来降价10万刷屏,真相如何?想要拿到可不容易
- *ST必康拟投数十亿元加码新能源 深交所火速发函:钱哪来?有无利益输送?
- 注册制“还权于市场”A股市场化程度加深
- 威马汽车全员降薪应对经营压力 基本工资管理层发50%,普通员工发70%
- 出境团队游6日试点恢复,多家旅行社将抢发“首团”
- 因iPhone销量下降,苹果利润2016年以来首次低于预期
- 桃李面包一年股价跌超四成:净利润毛利率持续不佳,品质遭投诉质疑
- Windows端iCloud出现严重问题:会显示陌生人照片
- “这对中国和世界都是喜讯”
- 开年流行直播带岗?千万人围观招聘直播间,投完简历3天到岗
- 华熙生物在肉毒素领域遇“猪队友”,可能错失机会窗口
- 深交所总经理沙雁:国企长期投资、价值投资功能有待彰显
- 让社会关切与法治中国建设同频共振
- 锦州银行:境内主要股东拟对本行实施一揽子财务重组交易
- 光大期货:2月3日能源化工日报
- 搜索
-