本篇文章2744字,读完约7分钟
/ h// h// h /
汉森机器人公司的david hanson将展示这个叫sophia的美女机器人。
伦理道德法的框架设计滞后
人工智能火了,人类变得有点不自然了
索菲娅不是人。 她只是个聪明的机器人。索菲娅又是“人”,不久前,沙特阿拉伯赋予她公民权,加入了人类国籍。
(/h ) )索菲娅很亲切,和人谈笑风生,眼神交流,在mv上和歌手王力宏“结婚”。 索菲娅又“恐怖”,主张未来的目标是上学,建立家庭,毁灭人类。
无论这句话是得意忘形还是隐喻,设计她的为人都是不自然的。
在最近召开的“人工智能技术、伦理和法律的重要科学问题”香山科学会议上,中国科学院科技战术咨询研究院研究员李眞以索菲亚为例,试图提出一个问题。 在技术高度发展的基础上,人工智能不断模糊物理世界和个人的边界,不断更新人的认识和社会关系,延伸出许多纷繁的伦理、法律和安全问题,但相应的规范和制度设计还是有的
“我国的人工智能技术可以说与世界发达国家‘同步’,但伦理和法律的研究严重滞后,这‘不足’制约着我们未来的快速发展。 ”李真说。
为了营造体工智能快速发展的伦理和法律环境,自然科学、人文社会科学行业的专家学者和产业界人士聚集一堂,试图跨越学科的鸿沟,寻找共同的交往,探讨人工智能最基本的问题。
人工智能很牛吗? 虽然很牛,但也有可能犯大错误
人工智能火了! 变成了人工智能牛! 多亏了近年来不断进化的“狗”阿尔法狗(阿尔法go )。
中科院院士张谡简要拆解了人工智能快速发展的两条路径:一是从符号主义,也就是新闻解决的宏观层面模拟智能; 第二种是连接主义,是从互联网中介观的层面模拟人类行为。 人工智能开拓者提出上述方向时,很多人认为不可能,但事实表明两条路都可以行得通。
“人工智能第一次让我吃惊的是,ibm的‘深蓝’项目战胜了国际象棋冠军。 这说明了用计算机模拟人类下棋的理性思考过程,符号主义这条路是可以通过的。 ”张谡说。
人工智能第二次对人类的“暴击”是基于神经网络的深度学习。 阿尔法go放弃了以前流传的围棋程序编程做法,创造性地利用机器学习获取象棋经验和直觉,结果战胜了世界围棋冠军。 “更值得观察的是,阿尔法·梵高通过从零开始36个小时的自我学习,超过了人类3000年的围棋经验,以100比0击败了前一版本的阿尔法·梵高。 这表明第二条路也行得通。 ”张谡说。
(/h ) )“这让我很兴奋,也很担心。 ”张谡的“忧虑”是基于深度学习的人工智能系统中存在的根本缺陷。 不能解释和不能理解,遇到事情,缺乏宣传能力,遇到新情况束手无策等。 这是因为,面对动态变化的环境,如果新闻不完整,有干扰或虚假新闻,人工智能系统的性能将大幅下降。
“现在的人工智能和人类智能有本质的不同。 ”张谡说,人工智能系统与人类相比,抗干扰性(鲁棒性)差,宣传能力弱,也有可能犯大错误。 “基于深度学习的模式识别系统可以正确区分不同的事物,但本质上并没有识别它们。 与人类不同,没有举一反三,也没有“知道其理由”。 采用这样的人工智能系统需要十分注意。 ”
“现在大家对人工智能抱有无限的期待。 围棋有规则,现实生活中没有规则。 人工智能产品虽然完成个别任务很牛,但是遇到了很多复杂的情况,实际上并不是很糟糕。 ”海尔企业cto赵峰想。
人工智能很可怕吗? 客气还是“远”,近忧是眼前
人工智能威胁人类吗? 口罩、霍金、扎克伯格……科技和产业界大佬对此的争论和相互依赖一直在持续。
参加香山科学会议的科学家们认为,人工智能威胁论的粉丝所指的“强人工智能”的到来还很遥远,现在迅速发展的是擅长执行个别任务的“弱人工智能”。 “人工智能在高速发展的情况下,是否会带来威胁是下一代科学家面临的问题,我们现在的任务是‘培育’它。 ”但中科院院士何积丰也坦言,目前人工智能也有“内忧外患”。 例如,无人机黑飞管理乱象、恐怖黑客攻击等。
“世界上没有免费的午餐。 因为机器通过“黑匣子”学习(深度学习)方法获得的智能,与人类的认识行为有着根本的不同,这也带来了潜在的风险。 ”张谡说,人工智能全面超越人类智能,出现自我意识是很危险的,但这是很客气的。 但是,其不可解释性带来了“近忧”,如果将深度学习应用于军事决策,万一系统有大致的决策错误怎么办?
人类准备好了吗? 不,您需要跟踪
“人类现有的概念框架和知识储备难以应对人工智能带来的影响,必须面对‘制度风险’。 ”李鑫说,人工智能技术在社会上的应用迅速改变了人类的生存环境,重构了人的行为,不断挑战着隐私、责任等概念的内涵及其现有策略。
李眞以“隐私”为例,以前法律上流传隐私是权利的概念,现在也是以服务和产品为交换部分个人隐私和新闻的商品,法律的及时跟进 此外,匿名化技术的迅速发展为隐私保护提供了新的工具,但是如果没有针对匿名化数据的法律概念和认证标准中规定的话,很可能会导致数据的滥用。 另外,隐私保护与国家安全、商业利益如何平衡也是个问题。 例如“责任”,典型的是自动驾驶系统的责任认定。 “也有预测犯罪等人工智能的预测和决定。 这让我们面临更多纷繁复杂的法律问题。 ”
“由于法律存在滞后现象,为了保障相关法律和政策的及时跟进,要求根据新的情况和新的社会课题,从伦理上继续判断人工智能带来的影响。 ”李真说。
人机能否和谐共处? 纳入伦理法律框架是最大的科学挑战[/s2/]
人工智能会产生歧视吗? 答案是肯定的。 这体现在数据选择和算法上。
有科学家研究通过采用 机器学习算法,帮助银行提供接受还是拒绝住房贷款的建议。 无论如何,在审查神经互联网决定制定流程的结果时,我们发现黑人申请的批准率大大低于白人申请的批准率。
这就是人工智能工具所在的“黑匣子”一样的不透明性。
“在人际关系中,智能机器和人的价值观和规范体系必须一致。 ”李鑫说,如何将人类价值观和规范纳入人工智能系统,使ai焕发人性的光辉,成为当前面临的最现实的挑战。
前面有科幻小说家阿西莫夫著名的机器人学三大定律,但近年来,国际人工智能界越来越重视人工智能中的伦理和法律问题,推动了相关技术标准和社会规范的探讨和制定。 例如,ieee全球人工智能与伦理倡议、白蚁人工智能23条伦理大致上说,我国的“新一代人工智能快速发展计划”也提出了人工智能伦理与法律三步计划。 “但是,将伦理和法律要求纳入ai系统仍然是世界前沿的科学课题,需要技术、伦理、法律等控制手段的联合采用、高度融合和跨学科合作。 ”李真说。
“智能机器不能代替人,必须协助人的工作。 人和机器各有特点,只有相互理解才能进行人与人的合作,但人也是人际关系的主导者。 通过这样的思路,可以将人工智能引向人机合作的快速发展之路。 ”张谡说。
来源:企业信息港
标题:“人工智能让人类不自然:伦理道德法律框架设计滞后”
地址:http://www.quanhenglawyer.com/qyzx/13251.html