首页 > AI教程资讯 >人工智能时代,要不要给技术发展踩刹车?谁说了算?

人工智能时代,要不要给技术发展踩刹车?谁说了算?

2025-04-26ai02门户网

中国工程院院士、国家科技伦理委员会委员、人工智能伦理分委员会主任、鹏城实验室主任高文无独有偶,美国纽约大学生命伦理学中心主任马修·廖也指出,科技监管存在“上下游”之分,上游监管是在技术发展的早期阶段进行干预,引导其发展方向,但问题是后续风险难以预测。相比之下,下游监管是在发展后期对现行技术进行回顾性管理,这种做法必须要等问题出现才能思考应对,所以需要承担更多风险。针对人工智能,美国目前采取的是下游监管,而欧盟则采用“全生命周期管理”的模式,即对数据采集、数据预处理、模型选择、模型训练、模型评估、部署等各环节实施监管。美国纽约大学生命伦理学中心主任马修·廖清华大学苏世民书院院长、清华大学公共管理学院学术委员会主任薛澜认为,想用一套机制自上而下地把所有问题都管住,这并不容易。从目前的实践来看,以问题为导向,针对问题出台法规,并在此基础上进行整合,这种自下而上的管理方式更切合实际。然而,无论采取哪种监管路径,技术发展与治理机制不同频、难同步,始终是摆在监管者面前的难题。马修·廖表示,尽管已经有不少国际机构出台文件,对AI的发展方向加以明确,但这些文件缺乏约束力,且形成周期长,跟不上技术发展的速度。对此,薛澜提出“敏捷治理”的理念,即**不必效法欧盟推出综合性的人工智能法律,而是需要紧紧跟上、快速响应。科技伦理说到底是人的问题,全社会的伦理思考能力有待加强科技伦理关键在人,这是与会专家表达的普遍观点。中国工程院院士、国家科技伦理委员会委员、医学伦理分委员会主任、中国工程院副院长王辰在谈到医学与科学的关系时表示,科学是现代医学的主流基础,但远非全部。医学与生物学、生命科学存在交集,但医学还包括自然科学与技术、社会科学与方法,以及人文学科与文化。王辰说,“医学是多学、人学、至学。”在此基础上,医学伦理学同样要重视“人”这个因素。人工智能领域的科技伦理问题,同样也是人的问题。天津大学和南开大学原校长、中国新一代人工智能发展战略研究院执行院长龚克认为,人类要形成伦理价值共识,并将其转化为法规、政策或技术标准。此外,人类还要具备将创造出来的价值共识植入人工智能的技术手段,并检验其效果,这是“为AI立心”。假如AI被植入人类的伦理价值共识,那么它就能识别并反向纠正人类的不合伦理行为,进而对人类社会增益。天津大学和南开大学原校长、中国新一代人工智能发展战略研究院执行院长龚克在形成伦理价值共识前,人类首先必须具备伦理意识。中国社会科学院哲学所科技哲学研究室主任、研究员段伟文指出,人工智能时代,科学实验室被搬到了社会。如果我们对伦理风险缺乏预见性,那么就只能任由事件发生,被动推进监管。他认为,应当转被动为主动,加强研究,特别是提高从业人员的认知能力。要提高从业人员的认知,首先必须打破单一学科、单一行业的界限。王辰表示,学科是独特的,不是独立的;是开放的,不是封闭的;是融通的,不是隔绝的;是协同的,不是掣肘的。中国科学院院士、国家科技伦理委员会委员、生命科学伦理分委员会主任、中国科学院副院长周琪也表示,生命科学、人工智能等领域的交叉融合加剧了技术集成与伦理问题的复杂性,需要多领域专家和相关部门协作应对。中国工程院院士、国家科技伦理委员会委员、医学伦理分委员会主任、中国工程院副院长王辰薛澜则认为,当前社会对人工智能的治理模式是由专家主导,以技术规则为准绳,但是规则、技术,乃至社会观念都是动态演进的。他强调,这套规则不能局限于专家学者的讨论,整个社会的伦理思考能力都有必要加强。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之

1879
241

同类推荐更多

草色遥看近却无——人工智能艺术的“主体性”问题

草色遥看近却无——人工智能艺术的“主体性”问题

最火的AI教程资讯

2025-04-20

山东工艺美术学院顾群业教授是国内知名的新媒体艺术家与设计师。多年来,顾群业不仅致力于新媒体艺术的教学与研究工作,还活跃于新媒体艺术创作、数字设计等实践领域,他的《化石》《龙》等作品荣获多项大奖,在