读懂AI另一面:“我”存在被滥用和失控风险

扫码阅读手机版

来源: 天津日报作者:刘连松 耿??/span>编辑:刘颖2023-11-27 09:36:43

内容提要:AI(人工智能)技术存在哪些风险?AI侵权如何界定?又该如何加强监管?AI会不会打开“潘多拉魔盒”?

制图 单君

天津北方网讯:AI(人工智能)技术存在哪些风险?AI侵权如何界定?又该如何加强监管?AI会不会打开“潘多拉魔盒”?

  以机器学习为代表的AI,适逢其时地为人类有效求解复杂问题带来了强有力的新手段。近年来,随着深度学习和强化学习方面取得突破性进展,一个人工智能驱动科学研究、催生创新应用的新浪潮迅速掀起。面对人工智能在应用层面的大爆发,随之而来的技术滥用问题也引发担忧。

  人工智能面临哪些滥用、失控的风险?如何避免人工智能带来的安全风险?人工智能能否意识到相关问题,并且有完整的解决方案?记者就此向百度AI大语言模型“文心一言”进行了提问。

  “文心一言”总结了人工智能滥用和失控的多个方面,并且针对隐私保护、技术研究、政策监管等层面给出了四方面建议。

  “文心一言”认为,AI滥用风险主要表现在三个方面。第一是数据隐私和安全问题。人工智能需要大量数据进行训练和优化,但这些数据往往包含用户的隐私和安全信息,如个人身份、地理位置、消费记录等。如果这些数据被不法分子获取,可能会被用于恶意目的,如身份盗用、网络攻击等。第二是偏见和歧视。人工智能的算法是由人类设计的,如果设计者存在偏见或歧视,那么算法也可能会产生不公平的结果。这可能会导致某些人群在就业、保险、医疗等方面受到不公平对待。第三是法律和伦理问题。例如,人工智能是否应该拥有权利和责任?如果人工智能犯了错误,应该由谁来承担责任?这些问题都需要深入思考和探讨。

  人工智能的失控风险表现在三个方面。首先,可解释性不足。现代人工智能系统往往具有很高的自主性和复杂性,但同时也缺乏足够的可解释性,这可能会导致人们无法理解人工智能的决策过程和行为模式,从而无法预测和控制其行为。其次,算法崩溃和错误。这可能会导致人工智能无法正常工作或产生不可预测的结果。再次,不可逆转的决策。人工智能的决策过程往往是自动化的,这可能会导致一些不可逆转的决策。例如,如果人工智能错误地识别了某个人的面部信息,这可能会对该人的隐私和自由造成永久性影响。

  涉及上述问题,“文心一言”在隐私保护、技术研究、政策监管等层面给出了建议:加强数据隐私和安全保护、公正性和透明性、监控和干预、加强研究和合作。

  可以看出AI模型的总结和归纳能力比较强,分析的方面也相对全面,但是对于问题的解决能力较弱。

 技术发展

  AI技术正在深刻重构所有产品、行业和生活场景,将从根本上改变知识迭代和社会协同的方式 ——

 AI冲击整个产业

  在11月8日至10日召开的2023世界互联网大会乌镇峰会(以下简称乌镇峰会)上,人工智能成为“热词”。

  阿里巴巴集团首席执行官吴泳铭在乌镇峰会的“互联网企业家论坛”上表示,AI技术正在深刻重构所有产品、行业和生活场景,将从根本上改变知识迭代和社会协同的方式,对生产力和生产关系、数字世界和现实世界产生全面深远影响。

  近日,IBM(国际商业机器公司)也发布了企业级AI和数据平台watsonx。IBM大中华区首席技术官、世界互联网大会人工智能特设工作组副组长谢东在乌镇峰会开幕前接受媒体采访时表示,生成式人工智能给整个产业带来的冲击是非常深刻的、巨大的、长远的、颠覆性的。它带来了生产力的巨大提升,整个生态链都会被重塑,甚至被颠覆,会产生一些新的行业、新的岗位。

  今年10月底在沈阳举行的第二十届中国计算机大会上,浙江大学教授卜佳俊介绍了通过多模态大模型处理图表、视频等多媒体信息的技术,让视力残障人士听得懂衣服尺码表、物品形状尺寸,实现无障碍购物。

  虽然AI还没有大规模进入普通人的日常生活场景,但是人们可以感觉到AI正飞速发展,生活、工作因AI而便捷、高效,美好的日子似乎触手可及。

  但在11月1日于英国布莱切利庄园召开的首届全球人工智能安全峰会上,全球28个国家和欧盟与会代表认为,人工智能对人类构成了潜在的灾难性风险。开幕式上,由包括中国在内的与会代表共同达成的《布莱切利宣言》正式发表。这是全球第一份针对人工智能这一快速新兴技术的国际性声明,担忧强大人工智能模型威胁人类生存,以及担忧人工智能当前增强有害或偏见信息。

  开发者描绘了美好愿景的AI,何以令各国政府、学界、业界忧心忡忡?

引发焦虑

  从机器生产取代传统手工业的焦虑,到大机器生产致人异化的担忧,再到人工智能将统治人类的恐惧 ——

AI带来重大风险

  《布莱切利宣言》同意“人工智能带来了巨大的全球机遇:它有潜力提升和促进人类福祉、和平与繁荣”。同时也指出,在带来巨大机会之外,人工智能还带来了重大风险,包括在日常生活领域。

  从媒体报道看,虽然参加首届全球人工智能安全峰会的各方在重视对人工智能发展的监管问题上没有异议,但在优先事项上有分歧。业界与学界对人工智能开发也有不同意见。简单说,就是对于理论上存在人工智能灭绝人类可能和已经出现苗头甚至后果的现实危害,哪个应该是优先项?

  从工业革命开始,人类拥抱科学技术发展、享受红利的同时,也产生了对机器的抵触:从机器生产取代传统手工业的焦虑,到大机器生产致人异化的担忧,再到人工智能将统治人类的恐惧。它们是科幻小说、科幻电影的重要创作母题,更多时候,人工智能作为“反派”出现在其中。对于人工智能理论上存在控制甚至毁灭人类的终极焦虑,绝不是杞人忧天。

  参加首届全球人工智能安全峰会的美国企业家埃隆·马斯克说:“这是人类历史上第一次与远比我们聪明的东西共处,所以我不清楚,我们是否真的能控制这样的东西。这是我们面临的生存风险之一,而且可能是最紧迫的风险。但我认为我们可以期待的是,引导它朝着对人类有益的方向发展。”

  中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理实施高层专家组成员曾毅是签署国际AI领域非营利组织“人工智能安全中心”联名公开信的中国科学家之一,这封公开信表达了对一些高级人工智能所带来严重风险的担忧。全球数百名人工智能领域科学家、企业高管在公开信上签名。曾毅受邀参加了首届全球人工智能安全峰会,并见证了《布莱切利宣言》的签署。

  今年10月25日,24名AI专家签署一份声明警告称,在未来几十年,先进的人工智能将对“人类的生存构成威胁”,呼吁对人工智能技术实施更严格的控制。清华大学交叉信息研究院院长姚期智、清华大学智能产业研究院院长张亚勤这两位知名中国学者均是签署者。

  清华大学新闻学院教授、元宇宙文化实验室和新媒体研究中心主任沈阳在接受记者采访时表示,未来如果有人利用AI制造生物病种,对人类是重大风险。“今年5月,我们出的人工智能发展研究报告当中就谈到了这个问题。10月底、11月初,美国的舆论场开始对这个问题进行比较多的讨论。现在生物基因编辑技术已经大规模扩散,人工智能开源的大语言模型平台技术也已经扩散。这两种技术结合起来,如果有人使用人工智能做生物病毒的分析研究和基因编辑,这对整个人类的威胁还是非常大的。”他说。

  沈阳认为,人工智能目前更多的是通过学习人类已有的数据和知识,特别是在网络中形成的知识来更新迭代。“但下一阶段,AI将通过对真实世界的交互来学习,我们把这个阶段叫做聚成智能。聚成智能可以理解成绕过人类,人工智能模型直接与天地宇宙交互,这将意味着它对知识世界的感知能力和改造能力将大幅度增强。”他告诉记者,如果人工智能接入人形机器人、车联网,或者接入各类物联网,它拥有硬件外设之后,将具备改变整个世界的能力。一旦被不怀好意的人掌握,它可能就会对我们真实世界的人产生直接影响。

 现实风险

  利用AI发布虚假信息是看得见的危害,算法加剧偏见则在不知不觉间影响着人类 ——

 AI取代人 欺骗人

  好莱坞演员大罢工近日刚刚结束,这次罢工的起因就与AI应用有关。在好莱坞制片方提供的续约条件中有这样一项条款:所有参与签订合约的群演会被进行肖像扫描,并被AI复刻成一个能随心所欲出现在任何影片中使用的替身,后续无须再支付任何薪酬或获得当事人的许可,买断肖像的费用仅仅为他们一天的工资。演员们担心自己成为第一批被生成式AI取代的失业者。

  未来二三十年内,什么职业不会被AI取代成为热议话题。对此,曾毅认为,整个社会中人工智能不应该无处不在,人工智能应该适度发展,适度和谨慎使用,深度治理。人工智能创作有可能替代相对平庸的作品,但无法替代大师的杰作。因此,人工智能倒逼艺术工作者和文字工作者反思艺术本质,应该让人类所从事的职业回归到正确的位置。

  如果说因AI失业是切肤之痛,那么《布莱切利宣言》中提到的人工智能当前增强有害或偏见信息、操纵内容或生成欺骗性内容的能力可能会带来不可预见的风险,所带来的破坏力,现在展现的可能只是冰山一角。

  11月初,使用生成式人工智能制作的日本首相岸田文雄的虚假视频在社交媒体上迅速传播。据报道,该视频由一名来自大阪的25岁男子制作,视频中AI生成的岸田文雄身着西装位于屏幕中央发表讲话,除了日本某电视台的台标外,还标上了“突发新闻”的字样,让人以为是现场直播。该AI视频于2日发布在X网站(前身为推特)上,到3日观看次数已超过232万次。该男子在接受采访时表示,视频制作全程只花了1小时。

  其实类似的AI生成视频在中文互联网平台上也屡见不鲜。泰勒·斯威夫特等外国明星“开口脆”,以流利的中文接受采访,就是AI的“功劳”,不但口型对得准、音色、声调也是惟妙惟肖。对此,大家都当成段子图个乐罢了。但如果利用他人影像、图片,通过AI制作成色情视频、图片传播就是犯罪,此类案件已经被多次报道。现在又有不法分子利用AI进行视频、电话诈骗,令人防不胜防。耳听眼见都不为实的世界,极大增加了正常人际交往的成本。

  利用AI发布虚假信息是看得见的危害,算法加剧偏见则在不知不觉间影响着人类。目前的AI还是一个看似智能的信息处理过程,依旧是一个由人设计的大模型,设计者可能都没意识到自己将潜意识中的偏见注入了算法。

  “人工智能本身存在幻觉、偏见、歧视,因为训练人工智能的团队价值观往往就是AI价值观的体现,同时它学习的语料也会很大程度上决定它的价值观。我们并不能保证它学习到的所有语料都是没有偏见、歧视和幻觉的。”沈阳说。

  几年前,联合国报告《如果我能,我会脸红》指出,大多数AI语音助手潜藏着性别偏见,AI语音助手几乎都有着女性的名字和声音,并被设置成千篇一律、顺从的女性形象。在医护领域,也出现了许多关于种族、民族、性别、残疾和其他偏见的AI应用的例子。因此确保公平性、消除AI中的偏见是世界卫生组织治理AI的核心原则之一。

  偏见的加深是潜移默化的。当你看过一条宠物视频,类似的视频就会源源不断推送给你,这是算法的“馈赠”。快手科技联合创始人、内容安全委员会主席杨远熙在乌镇峰会上表示,记录每个用户的看法、让每个用户都找到自己想要的内容,通过人力是解决不了的,因此,AI对于快手而言已经成为基础能力。但是算法推荐之下,“信息茧房”进一步加固,导致人们缺乏对事物全貌的了解,认知包括偏见可能“极化”,社会矛盾易被激化,加大出现社会不安定因素风险。

  “近年来,人工智能广泛应用于多项领域中,比如自然语言处理、图像处理、自动驾驶、智能安保、智能医疗、教育等多个方面。它在为我们的工作带来便利的同时,也引发了技术滥用问题。”南开大学人工智能学院教授刘杰表示,不法分子为了牟利,有可能会利用人工智能技术进行欺诈活动,用其来制造欺骗性更强的虚假、误导等内容。“随着人工智能技术的迅猛发展,要加强对人工智能等领域的监管;在技术保障层面,用相关技术防范或制约利用人工智能的违法犯罪。”刘杰说。

探讨AI的监管与未来

  法律法规层面规范外

  人类应学会与AI共生

  为应对生成式AI带来的现实风险,今年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,明确应采取措施防范未成年人沉迷AI服务,发现违法内容应当及时处置等。

  对国内AI的发展现状和前景,沈阳表示:“多模态AI的胜利在于全球化,我们还是需要结合中国的特色,不断积聚能量。中国的应用场景多,我们在短视频直播带货、网红培育、移动游戏这些方面都比较强,所以中国如果能够把整个AI技术跟我们已经做得比较好的部分进行有机结合,在某些方面就能够做到世界领先。要有信心,不必恐慌。”

  今年10月,“一带一路”国际合作高峰论坛期间,中国发布《全球人工智能治理倡议》,并在其中提出“积极支持在联合国框架下讨论成立国际人工智能治理机构,协调国际人工智能发展、安全与治理重大问题”。

  曾毅在接受媒体采访时表示,更为深刻、广泛、最具包容性和全面意义的全球人工智能治理确实只有联合国这个平台才最为合适。沈阳也认为,人工智能的监管和治理首先就是进一步加强国际交流,其次是要在人工智能平台领域形成一种叫做多AI协同发展的状态。要多元化发展,或者叫多模态多角色发展,这样AI之间也可以进行风险对冲,交互沟通。“要对整个AI产业开展全链条管理,从语料算法算力应用、评估、国际合作等方面,把它纳入到比较强的监管状态下。”沈阳告诉记者。

  众多AI领域专家认为,人类在发展AI的过程中不可忽视伦理问题,要让AI明善恶。应当加强人类和AI之间的互动,因为人只有充分了解AI之后,才能够制定出针对它的治理政策。

  刘杰认为,强化AI的伦理规范十分重要,确保人工智能技术的道德和社会责任,这可以通过制定伦理准则和规范来实现。例如要求人工智能系统必须遵守人类价值观、不进行恶意行为等。加强对AI的监测和评估,及时发现和解决可能存在的问题,这可以通过建立监测和评估机制来实现。例如设立专门的人工智能监管机构,对人工智能的应用情况和潜在风险进行实时监测和评估。

  此外,刘杰表示,法律法规层面的规范是AI发展和应用的基础。这些法律法规应该涵盖人工智能的隐私保护、数据安全、伦理规范等方面,以确保人工智能技术的安全和合法使用。

  人类与AI互动的过程,也是共同演化的过程,人与AI共生是我们的未来。

  “我们认为,关于AI的未来,我们不知道的比知道的多,难以想象的比可以预测的多。‘一切皆有可能’中蕴涵着巨大的发展机遇。”吴泳铭说。

相关新闻

  OpenAI控制权之争

  引发人们进一步担忧

  近日,OpenAI(美国人工智能公司“开放人工智能研究中心”)突发声明,宣布公司首席执行官萨姆·奥尔特曼离职,然而几天之内,剧情多次反转。这一消息在业界引起广泛关注和讨论,进一步引发人们对人工智能失控和滥用的担忧。

  在OpenAI的声明中,公司表示奥尔特曼在与董事会的沟通中并不坦诚,阻碍了他履行职责的能力,董事会也不再相信他继续领导OpenAI的能力。OpenAI联合创始人格雷格·布罗克曼辞去董事会主席一职,以声援奥尔特曼。

  此后一天,据称包括微软在内的OpenAI主要投资方向董事会施压,要求奥尔特曼复职,但未果。几天后,微软总部宣布任命奥尔特曼领导一个新的内部人工智能小组。截至11月20日,OpenAI超过700名员工威胁将辞职,除非董事会“换血”。他们在联名信中质疑董事会的能力,指责董事会破坏了公司的工作,他们还要求奥尔特曼复职。

  11月22日,OpenAI在社交平台上宣布,已经原则上达成协议,奥尔特曼将重返公司担任首席执行官。至此,这场持续超过5天的OpenAI“宫斗”,最终以奥尔特曼的回归暂时画上句号。

  据了解,由于OpenAI拥有的强大开发潜力,2018年该公司曾上演控制权之争。作为该公司创始人之一的马斯克,当年正是因为控制权之争,而退出该公司。

  2015年,奥尔特曼、布罗克曼与马斯克一道创立了OpenAI,旨在推动人工智能技术发展。奥尔特曼在推动OpenAI在人工智能领域取得了显著成绩。

  作为公司的首席执行官,奥尔特曼在公司的战略规划、业务发展和投资方面都发挥了重要作用。人事变动对OpenAI来说是一个重要的转折点。人工智能模型的控制权之争以及背后的利益较量,进一步引发了人们对人工智能失控和滥用的担忧。(津云新闻编辑刘颖)

下载津云客户端关注更多精彩

推荐新闻

关于北方网| 广告服务| 诚聘英才| 联系我们| 网站律师| 设为首页| 关于小狼 | 违法和不良信息举报电话:022-23602087 | 举报邮箱:jubao@staff.enorth.cn |举报平台

Copyright (C) 2000-2023 Enorth.com.cn, Tianjin ENORTH NETNEWS Co.,LTD.All rights reserved
本网站由天津北方网版权所有