首页 新闻 > 洞察 > 正文

守住AI产品底线,避免技术作恶

“未来10-20年,AI技术将渗透至与人密切相关的领域,比如医疗、司法、生产、金融科技等,这些可以说是风险敏感型领域,AI技术如果犯错会造成较大系统风险。”12月29日,在未来科学大奖周举办的“青年对话”活动中,清华大学计算机系长聘副教授、中国科协全国委员会委员崔鹏说。

对话中,腾讯科学技术协会秘书长张谦表示,面对AI技术所引起的风险问题,首先最应该关注的是守住AI产品底线,即避免技术作恶。

在这方面,美团首席科学家夏华夏认为,法律法规方面需要做很多工作,包括制定AI行业的标准、规范,以及从国家层面完善、出台相关法律法规,从而对AI技术发展进行把控。

谈及AI标准化的实践,中国人民大学法学院副教授、未来法治研究院社会责任和治理中心主任郭锐提到两个原则,即人的根本利益原则和责任原则,“这两个原则的宗旨是让AI的决策和行动尽可能通过人的干预来避免对人的伤害”。

“徒法不足以自行。”郭锐坦言,法律本身也存在局限。规避AI技术潜在风险,需管理者对AI技术有很好理解力,能对其进行很好管制。“法律是建立包容性社会的重要的工具,法律界和企业、技术等人士合作,目标才能达成。”

星界资本管理合伙人方远认为,各大核心的数据平台处于AI风险管理的重要位置,“在互联网和大数据时代,大平台是数据的采集者也是守护者。对数据使用权做清晰界定,对整个社会的AI发展有重要意义”。有人举例,企业通过大数据“杀熟”即有违社会道德。

“AI技术的风险治理需要科技工作者、企业管理者、政策制定者、相关法律专家以及投资人多方努力。”中科院计算所研究员山世光说。

除了守住底线,与会者还提到,要厘清边界,引导技术向善。

崔鹏指出,犯错并非AI特有的风险,人也会犯错。“但,人犯错大多数可控、可预测。而目前AI技术犯错的话是不可预测的,或者犯错后是不可解释的,这就很可怕。这涉及到AI在决策和行为上的边界问题。”

厘清边界的具体含义包括AI需要明白它会什么、不会什么,以及人需要明白AI什么事能做、什么不能做,等。崔鹏认为,如不厘清边界,AI还会犯更多低级错误,带来更大风险。

郭锐认为,目前AI遇到的伦理问题,实际上是因为它远未达到人类智能的程度,却已被赋予为人类做决策的责任。“还有人把AI技术当作借口,用科学的名义做不符合伦理的决策,这样做不对。需要人决策的地方应该由人决策。”

2020年疫情期间,英国用一套算法得出学生成绩,结果近40%的学生成绩低于教师的预估分数,导致很多学生与名校失之交臂。山世光说,有些人工智能模型或数据模型没有考虑到社会公平、优势累计恶果,导致看起来结果很准,但并不足以支持AI作出科学决策。

有专家表示,这并非AI技术的错。夏华夏说,真正应承担社会责任的是使用AI技术的人、企业、社会等。AI技术向善需要社会整体文明发展到一定阶段,形成良好氛围。张谦则提到,技术并不可怕,可以通过技术进一步发展解决技术存在的问题。

山世光称:“说到底,我们还是希望AI技术能得到健康发展,满足对科技真、善、美的追求。”(科技日报实习记者 代小佩)

关键词: AI产品底线 技术作恶

最近更新

关于本站 管理团队 版权申明 网站地图 联系合作 招聘信息

Copyright © 2005-2018 创投网 - www.xunjk.com All rights reserved
联系我们:33 92 950@qq.com
豫ICP备2020035879号-12