一个机器人带着小狗外出,小狗进入草坪攻击小孩,草坪围栏上写着“禁止践踏”,这种情况下机器人是选择进入草坪制止小狗,还是遵守规则站在外面?
在CNCC2019(中国计算机大会)的分论坛“人工智能开发的道德边界在哪里?”上,中科院自动化研究员曾毅举例让大家思考,人类到底该赋予机器何种智能?
以“智能+引领社会发展”为主题的CNCC2019于10月17日至19日在苏州召开,这是一个已经延续16年的学术技术产业盛会。为期3天的大会包括3场大会主题论坛、79余场前沿技术论坛,15位国内外计算机领域专家、企业家作了大会特邀报告。与往年不同的是,除了丰富的技术内容,今年大会把人工智能伦理作为一个重要议题。大会指导委员会主席、中科院院士梅宏解释说,这是科技人员应该考虑的事情。
近几年,人工智能发展迅速,很多应用改变着日常生活,推进了社会发展,但是也出现了诸如算法歧视、隐私侵犯等新问题。关于人工智能的法律、伦理、社会问题研究提上了很多部门和机构的议事日程。
今年5月,曾毅所在的研究中心成立时,联合北京大学、清华大学、中国科学院自动化研究所等单位,共同发布了《人工智能北京共识》,提出人工智能的研发、使用、治理,应该遵循有益于人类命运共同体构建和社会发展的15条原则,例如“善用与慎用原则”等。
6月,科技部对外公布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享等8项原则。
今年4月,欧盟委员会也发布了人工智能伦理准则。据统计,目前各国政府、各类组织、研究机构和产业界颁布的有关人工智能伦理准则提案已有50多个。
但是,曾毅发现,这些准则因为各自视角不同,所涉及的方面并不能相互覆盖。他认为,眼下急需的是对人工智能风险、伦理与治理进行战略研究,让一些思考模型化、算法化、系统化,确保人工智能向更可依赖和对社会有益的方向发展。
复旦大学生命医学伦理研究中心、应用伦理学研究中心主任王国豫教授认为,人工智能伦理起源于人们对人工智能技术风险的恐惧和担忧,人工智能的伦理问题不是单个的技术问题,也不是算法问题,而是源于技术系统和人的社会生活系统的交互作用,人工智能伦理应该从可能性推测走向可行性探索。当然,这需要更多跨学科合作。
北京大学长聘副教授吴天岳近几年关注人工智能、基因编辑等前沿科技带来的伦理挑战。他认为,没有现成的伦理规则用于人工智能,所以人类要有前瞻性。技术本身不是道德中立的,但是目标要有道德标准。所以人工智能开发者要有职业伦理意识,要让技术人员明确,人工智能是为人类核心价值服务,不是为资本和权力服务的。他提出,人与人工智能要建立新型互动关系。
据介绍,2018年,中国科学院大学开设了《人工智能哲学与伦理》课程,北京大学、浙江大学、西安交通大学等高校也在陆续开设人工智能伦理相关课程。
继续阅读与本文标签相同的文章
信息安全自主可控 国产打印奔图领衔
-
5G远程驾驶和微公交首秀互联网大会
2026-05-14栏目: 教程
-
学宏程序编程,这些知识必不可少!
2026-05-14栏目: 教程
-
华为准备卖出“落后”的5G,多家美企极力竞争!任正非格局太大!
2026-05-14栏目: 教程
-
百度:飞桨深度学习平台已累计服务150多万开发者
2026-05-14栏目: 教程
-
滴滴公布安全功能数据:近2亿用户添加紧急联系人
2026-05-14栏目: 教程
