Root Nation文章技术试图避免机器反抗:人工智能的第一章

试图避免机器反抗:人工智能的第一章

-

5 月 8 日至 日,专门从事人工智能 (AI) 技术创建和开发的教授、开发人员和工程师会议在加利福尼亚举行。 在四天的积极讨论过程中,编制了一份现在已经使用和未来应该应用的人工智能原则清单。 其实已经对过去几十年人类在机器学习领域取得的成就进行了一定的总结。

埃隆马斯克在其中一次讨论中
埃隆马斯克在其中一次讨论中

一般来说,“人工智能”与人脑和智力本身没有直接关系。 这个术语的作者美国计算机科学家约翰·麦卡锡是这样解释这个概念的:“问题是我们还不能笼统地定义我们想要称之为智能的计算过程。我们只了解一些智能机制。因此,在这门科学范围内的智能下,只有实现世界目标的能力的计算部分才能被理解。 这是 1956 年在达特茅斯大学的一次会议上宣布的。

1956 年达特茅斯会议
1956 年达特茅斯会议与会者的全部构成

时间证实了麦卡锡的话。 今天,我们使用信息工具来实现我们的目标,我们关于简化世界或思考未来的想法越来越与软件代码密切相关。 是的,我们改变了同样作品的想法,但我们绝对不排除它们无处不在。

因此,所有 23 个编撰的“未来法则”被分为三组:科学研究问题、伦理和价值观、技术观点。

人工智能、机器人

人工智能构成

研究部分

  1. 人工智能研究的目标不仅是创造一种狭隘的设备,而且是造福于整个社会。

2. 人工智能的投资应进入确保技术有用性的研究领域,以便对信息学、经济学、法律、伦理学、社会科学等问题给出更准确和通用的答案:

  • 如何保证AI的高可靠性,成功抵御黑客攻击,轻松防故障?
  • 如何借助自动化,花费最少的资源,达到预期的目标?
  • 考虑到人工智能的出现,如何根据现代经典有效地更新法律体系,确保正义?
  • 人工智能将获得什么样的法律和种族地位?

3. 确保研究人员和政治家之间建设性和平等的互动。

4. 文化成果充分公开透明,进一步利用人工智能。

5. 人工智能研究人员之间的互动与合作,以避免激烈的竞争。

道德价值

- 广告 -

道德价值

6. 人工智能系统必须在整个运行期间安全可靠。

7. 尽快找出问题的原因并随后排除。

8.自治系统对法院判决的任何干预都必须得到授权,并在委员会主管成员(人)核实的情况下进行报告。

9. 由设计或软件错误引起的损坏、故意制造危险情况的责任由开发人员和工程师承担。

10. 所有自主人工智能系统都应努力获取普世人类价值观的知识。

11. 人工智能的设计和运行方式必须符合人类尊严、权利、自由和文化多样性的理想。

12. 一个人在使用人工智能的过程中产生的信息必须在未来对同一个人可用(管理结果和收集的数据的可能性)。

13. 人工智能在处理个人数据时不应无理限制人们真实或想象的自由。

14. 人工智能技术应该让尽可能多的人受益和使用。

15. 人工智能的经济和社会成就是全球性的,应该以造福人类为目标。

16. 人总是有选择:独立做决定或委托给人工智能。

17. 人工智能的目的是在不带来破坏和灾难的情况下改善和丰富社会。

18. 军备竞赛中使用人工智能技术的可能性应该降为零,事实上,武装对抗也应该停止。

人工智能

长期问题

19.我们必须绝对清醒地评估人工智能能力的极限,避免资源的不合理消耗。

- 广告 -

20. 人工智能的发展将是集约化的,因此技术必须得到控制,以免引起不可逆的反应。

21. 风险,尤其是大规模风险,应以确保将可能损失降至最低的方式进行规划。

22. 人工智能系统具有自我发展和自我复制的能力,会导致人工智能活动质量下降,因此应定期对关键指标进行控制。

23. 超级智能是一种服务于并将服务于全人类利益的技术,不服从任何特定的私人组织或国家。

机器人和人

另请阅读: Hyperloop:真空火车比赛怎么样?

让我们简要回顾一下报告的主要论点。 专家们担心在人工智能密集发展的当下,自身的落后,因此他们力求确保对技术的绝对控制。 人工智能的全球公共价值及其与人类文化的融合也被反复强调。 但是,我们很快就会知道该计划是否会实施。 人工智能就像一只小狗,现在它会跑,会玩,但它最终会成为什么样的狗,主要取决于主人。

目前,这项“法案”正处于地球公民的批准阶段,所以如果你想要一个安全、幸福和科技的未来,那就放心吧”投票” 采纳这些绝对合理和必要的原则。

图灵测试与人工智能

图灵测试

伟大的数学家艾伦图灵也涉足人工智能技术,所以他想出了一个非常有趣的测试。 图灵测试最早出现在 1950 年哲学出版物 Mind 的文章“Computing machines and the mind”中。 测试的想法是确定机器思维的能力,一般来说,它的存在本身。

图灵测试

标准解释如下:“一个人与一台计算机和一个人交互。根据问题的答案,他必须确定他正在与谁交谈:..与人或计算机程序。 计算机程序的任务是误导一个人,迫使他做出错误的选择。” 所有参与者都无法看到对方,交流以测试形式进行,因为测试的目的不是测试语音识别设备的技术能力,而是模仿人类思维的能力。

通信也是在受控的时间间隔内进行的,因此“法官”无法根据响应速度得出结论。 有趣的是,发明这个规则是因为在创建这个测试时,计算机的反应比人慢,现在也是必要的,因为现在人落后了。

图灵测试 图灵测试

此外,基于此测试,还创建了一个类似的测试来确定对话者的性别。 在裁判的角色中,选手C必须与选手A和B进行交流,实际上是一男一女。

一篇关于 AI 的研究论文发表了以下评论:“现在我们问,‘如果机器在这个游戏中扮演玩家 A 会发生什么’,如果测试涉及人和女士? 这些问题将取代我们原来的问题:“机器能思考吗”。

也就是说,我们将回答更简单的问题,而不是一个绝对牵强的问题,并坚持不懈地做,从而越来越接近人们期待已久的人工智能心智能力这一主要问题的答案。

资料来源: 未来生活, 维基百科上的数据 和更多 维基百科上的数据

- 广告 -
注册
通知关于
客人

2 评论
较新的
年纪大的 最受欢迎
嵌入式评论
查看所有评论
Vladislav Surkov
行政
Vladislav Surkov
7年前

这里的人们忙于真正重要的工作。 明确了人工智能的权利和义务。 地球是一个对比鲜明的星球。 一方面,我们生活在一个技术飞速发展的时代,另一方面,我们生活在饥饿、人道主义灾难和军事侵略的时代。 其特点是进步出于某种原因来自西方,而蒙昧主义来自东方。 生活在乌克兰,你会特别敏锐地注意到这一点……而不是联合起来,让时间更接近“宇宙飞船犁过宇宙”的时间。

杰基尔_
杰基尔_
7年前

+1 描述的非常准确