牛津、剑桥等14家机构警告:警惕AI被用于恶意目的

  • 时间:
  • 浏览:0

据The Verge北京时间2月23日报道,当谈论人工智能带来的危险时,大伙儿通常强调的是意料之外的副作用。大伙儿担心的是,大伙儿不可能 会意外地开发出具有超级聪慧的人工智能系统,而忘记赋予它道德;不可能 大伙儿在部署刑事判决算法时,哪些地方地方算法吸收了用来训练它的数据地处的种族偏见意识。

但这还都另一个人工智能不可能 带来的全版风险。

大伙儿会主动将人工智能用于不道德、犯罪或恶意目的吗?这会带来更问题图片图片图片吗?来自包括牛津大学、剑桥大学、人类的未来研究所(Future of Humanity Institute)、埃隆·马斯克(Elon Musk)投资的非营利性组织OpenAI在内的机构的二十多位专家称,你这一个多 多问题图片图片的答案是肯定的。

在这份题为《人工智能的恶意用途:预测、预防和缓解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的报告中,专家列出了未来5年人工智能不可能 给人类带来问题图片图片的很多途径,以及人类的应对之道。报告联企业企业合作者迈尔斯·布伦戴奇(Miles Brundage)向The Verge表示,随便说说人工智能时要被用来发动恶意攻击,但大伙儿那么 必要谈人工智能色变,不可能 绝望。

布伦戴奇表示,“我喜欢积极的态度,也以后我说大伙儿还大有可为。报告的本意都有描述悲观的未来——人类时要采取诸多预防方法,大伙儿还有很多东西时要学习。我从不认为大伙儿不可能 陷入绝境,但我把这份报告看作是行动的倡议书。”

报告的内容很广泛,但重点介绍了人工智能加剧实体和数字安全系统面临威胁和制造全新威胁的几种主要方法。它还提出了应对哪些地方地方问题图片图片的5点建议,其中包括使人工智能工程师提前告知大伙儿的研究被用于恶意目的;启动政界和学术界之间对话,防止政府和立法机关对此一无所知。

人工智能最大的威胁之一是,通过使2个多 多要求人工完成的任务实现自动化,人工智能时要大幅度降低很多攻击的成本。

报告提出的第四个要点是,人工智能时要为现有威胁增加新维度。相似,在钓鱼攻击中,人工智能不仅能用来生成常见的电子邮件和消息,还能生成虚假音频和视频内容。

当然,人工智能还能对很多恶意行为起到“助纣为虐”的作用。相似,在政治和社会生活中左右舆论。

报告还阐述了人工智能带来的全新威胁,其中包括恐怖分子在保洁机器人中隐藏炸弹,把它送到特定场所,目标靠近后由人工智能技术自动引爆炸弹。

为了预防、减轻人工智能不可能 带来的危害,报告给出了5点建议:

·研究人员应当告知大伙儿的研究不可能 的恶意使用方法。

·政策制定者时要向技术专家了解哪些地方地方威胁。

·人工智能行业时要向网络安全专家学习怎样更好地保护其系统。

·时要制定人工智能道德框架,并严格遵守。

·时要有更多人参与对你这一问题图片图片的讨论,其中不应该仅仅局限于人工智能科学家和政策制定者,还应该包括伦理学家、企业和普通大众。

换句话说:以后我更多的对话和更多的行动。