分享

AI和道德 - 通过炒作切割

0
 AI. 和道德

伊万娜巴罗莱蒂

企业适用于AI,因为该技术呈现出梦幻般的商业机会。在从物流到数字广告的田野中,它有能力降低成本和最大化的结果,争论数据隐私专家伊万那Bartoletti

毫无疑问,所有部门的企业将在未来几年将这项技术视为其转型计划的核心部分。但最近的高调事件强调了人工智能(AI) - 如果受到严格的治理 - 构成严重的风险。

去年独自一人,例如,一辆自动驾驶优步汽车 杀了一个行人;家庭办公室 错误地指责7000名外国学生作弊 在签证考试中,由于语音识别软件的缺陷;和亚马逊被迫在它之后删除它的招聘计划 只拿起男性申请人的CVS.

所有这些情况都说明了为什么公司必须将道德视为部署AI的重要关注。

在过去几个月里,政策制定者在这一领域特别活跃。英国政府合作了世界经济论坛,以确定AI监管和治理的汇率和实用性。它也设立了 数据伦理和创新中心虽然众多宣传群体和议会倡议都暗示道德问题如何变成务实的要求。

在我看来,组织需要专注于两个关键方面,因为它们导航他们使用AI周围的道德,法律和实际复杂性。第一个是战略 - 即:决定AI如何为您的业务的目标和价值观提供服务。第二种是技术 - 所需的算法,流程和系统。

让我们从后者开始。算法影响评估(AIAS)是AI治理的重要组成部分,因为他们的目标是行动 前赌注 ,通过为设计提供道德框架,和 事后 ,通过用作有用的审计工具。

AI. AS建立在许多标准上,包括:

问责制: 确保在算法上工作的记录被保留,以便始终保持软件开发,机器学习培训程序等的日志。

透明度: 符合GDPR和其他隐私法 - 以及确保,鉴于网络安全和AI不可分割,满足所有数据安全要求。

责任: 确保将值嵌入到机器中,这些值受到人类考虑和共享道德的限制。

AI. A可以帮助组织审核其算法并减轻风险。因此,它们是有用的工具。但是AI不仅仅是技术,所以技术修复不够。

这是策略进来的地方。公司需要能够削减炒作,并决定他们打算使用AI的哪些任务,自动化将如何增加人类能力以及如何管理通过AIAS确定的风险如何达到组织目标。这种方法产生了缺乏在大数据和算法的年龄缺乏的信任程度。

我认为,将需要具体的具体行业的监管,以确保AI行业在剩余受伤的情况下继续茁壮成长。

越多的机器将能够将值嵌入到它们中,我们可能需要一些监管措施,以确保产生AI技术的人不是唯一受益于它的措施。

而且,随着国家为未来的各国竞争,我们还必须培养能力远远超过技术技能 - 以应对未来的挑战。

伊万娜巴罗莱蒂是隐私和数据保护的负责人 Gemserv. 和联合创始人 妇女领导AI network.

有关详细信息,请发送电子邮件 [email protected]

 

分享

关于作者

伊万娜巴罗莱蒂

伊万娜巴罗莱蒂

伊万娜巴罗莱蒂是Gemserv和Ai Network领先的女性联合创始人的隐私和数据保护主管。

No comments

时间限制耗尽。请重新加载CAPTCHA。