美国科学家:当人工智能遇上伦理道德
在近日发表于《自然》杂志上的一篇评论文章中,4位计算机领域的研究领军者了他们对该领域的思考。目前,美国国防部高级研究计划局(DARPA)正在推进两个项目:快速轻型机器人(FLA)和敌对环境下联合作战(CODE),前者计划设计出一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;而后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序搜索目标、锁定、跟踪、攻击、评估。它们将有可能促成杀手机器人的研发。在近日发表于《自然》杂志上的一篇评论文章中,4位相关领域的研究领军者了他们对智能机器社会风险的担忧和解决方案。美国加州大学伯克利分校的计算机科学教授StuartRussell认为,这些武器所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,这不是我们所梦想的未来场景。而来自英国布里斯托尔大学的机器人专家SabineHauert则表示,公众无须对人工智能技术的发展感到担忧。应对人工智能武器表明立场StuartRussel(美国加州大学伯克利分校计算机科学教授)人工智能(AI)和机器人领域的专家面临一个重要的伦理决策:必须要决定他们是支持还是反对致命自主武器系统(LAWS)。此类系统能在几年而非几十年内发展为可行的。该领域的风险很高,致命自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。在几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些自动的飞行器和坦克不需要人类干预,自己能决定谁能活下来而谁又会死去。例如,四轴飞行器能在一座城市中找到并打击敌方战士,但不包括人类能设定目标的巡航导弹和遥远的无人驾驶飞机。但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚国际社会是否会支持一个限制或禁止此类武器系统的条约。1949年签订的战争人道主义《日内瓦公约》要求任何袭击需要满足3个条件:军事必需、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡。而当前的自动武器很难或根本无法作出这些主观判断。作为一个人工智能专家,我曾被要求为特定常规武器公约(CCW)第三次重要会议提供专业证据。德国等许多国家迫切要求签署禁令,但美、英和以色列这3个LAWS技术领先的国家则认为这样一个条约没有必要。LAWS通过允许机器选择杀死谁,而可能侵犯人类尊严的基本原则。在我看来,最应当关注的是这个技术发展轨迹的可能终点。我认为超过人类控制的系统将建成这一点是不可避免的。当然这些武器系统能涉及的范围和携带大型武器的能力会受到物理定律的限制。然而它们的灵活性和杀伤力将让人们毫无防御之力。这样的未来不会是人们想要的。因此,人工智能和机器人领域的科学家及其所在的专业组织应当表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。应当召开学术会议进行讨论,并让伦理委员会参与进来。什麽都不做就等于是表示支持继续发展和使用。«上一页12下一页»
- 国内化工等工业产能过剩为何屡治屡发船用电网香蕉冰激凌机轻工涂料液下泵Frc
- 一带一路战略下的矿业发展机遇电路板蹲便器双龙配件汽车窗帘版权转让Frc
- 瓦楞纸箱生产趋向专业化灌封胶柳州尼龙手套游戏光枪点歌系统Frc
- 3月14日余姚塑料城AES市场价格万宁除渣设备烤玉米机旋转端子快速夹Frc
- 浅谈标签粘胶的使用0导电涂料辽源台灯防水接头美工刀Frc
- 爱色丽发布新型i1Pro2色彩管理解决方舒兰监测电缆汽车扶手丝杆花鼓Frc
- 食品安全检测车开上街头外卖平台首次公开抽测振仪糕点机械标准螺钉洗沙器灌注机Frc
- 选购碎石机的小窍门镍铬梧州电表箱换网器铁球Frc
- 成都拟建中国第一世界第二高楼粉碎机组管状电机暖风机无氧铜线中国结Frc
- 沈阳机床免费开放全球首个工业操控智能平台南雄无铅焊锡切布机铜角阀小礼服Frc