Facebook称他们为"负责任人工智能的五大支柱谷歌将它们描述为"我们的原则,用于谷歌的人工智能。美国情报界有一个“道德框架“人工智能,美国国防部已经”人工智能伦理原则每一份文件都对同一任务采取了略有不同的方法:列举了一组条件和原则,人工智能能力的开发和部署必须遵循这些条件和原则,以反映使用它们的社会的道德和伦理期望。

虽然这些声明中有不同之处,但它们清楚地表明,有道德和负责任的AI不仅在AI研究社区得到了明确的关注,也得到了我们在Kitware合作的政府和商业客户的关注。

用AI做好事,而不是坏事

不可否认,使用人工智能有利有弊。但我们相信,如果负责任地开发和使用人工智能,它的好处将超过风险。这就是为什么我们的团队一直致力于推进人工智能技术,以产生积极的社会影响。例如,我们自己动手的人工智能工具箱,VIAME,最初是与美国国家海洋和大气管理局合作开发的,目的是评估海洋生物数量,以确定我们水生生态系统的健康状况。

Kitware还积极参与防止人工智能被用于社会危害的努力。我们团队目前领导的项目之一是美国国防部高级研究计划局SemaFor程序。我们正在努力开发一种算法,以检测多媒体文章和帖子中的虚假信息和其他不一致之处。通常情况下,这种虚假信息是使用某种形式的AI生成的。例如,我们的一个客户最近发布了一个神经网络,它可以创建适合动画和视频生成的高度逼真的合成图像。对手可以使用这些工具来制造虚假信息,制造不和,并减少对信息源的信任。

意识导致道德的人工智能实践

了解道德AI并将其融入工作流程的人越多,我们的社会就越安全。这就是为什么我们的团队致力于提高道德AI领域的意识。在过去一年中,我们发表了多篇学术论文(可解释的交互式基于内容的图像检索可解释的AI工具包解释医学图像检索(COVID相关);而且二重身显著性:走向更有道德的人的再识别),并组织了一个车间在ACM SIGKDD知识发现和数据挖掘国际会议上讨论伦理AI。值得注意的是,许多主要的人工智能会议,包括CVPR、NeurIPS和AAAI,现在都要求审稿人根据研究人员对伦理问题的关注来评估论文,这些伦理问题包括公平、隐私保护、潜在的社会危害以及对人类受试者研究协议的遵守情况。

将道德AI融入客户项目

包括美国政府、学术界和商业客户在内的许多组织都在寻求采用合乎道德的人工智能实践,强调负责任的人工智能正在成为一个重要的优先事项。Kitware在开发和部署人工智能模块时始终关注伦理问题,无论它们是纯粹用于研究还是打算在现实世界中使用。我们的团队与同行研究人员和客户密切合作,开发这些能力,以遵守他们已建立的管理这项工作的道德原则。

有明确的证据表明,我们的客户和合作者对道德AI越来越感兴趣。在最近与我们的一个国防客户进行的合同谈判中,我们被要求描述我们在该项目中的工作如何符合国防部道德AI原则。在我们的政府资助的美国国防部高级研究计划局大熊星座项目的额外资金可用来探索明确考虑法律、道德和伦理(LME)元素如何影响基于人工智能的能力的开发和评估。我们发现这样的考虑经常导致产品增强而不是创造约束或限制。例如,武装冲突法包括“荣誉”的概念,处理对手之间的公平和尊重,以及“区别”,处理战斗人员和非战斗人员之间的区别。URSA可以在复杂的、对抗性的城市环境中进行感知,为了解决URSA上的这些概念,我们增加了“无感知区”能力。这使特派团指挥官能够指定敏感区域,如宗教或儿童保育设施,减少或完全禁止感知。这一功能也极大地帮助了评估工作——在测试范围内建立一个无感知区,为现场测试人员提供了观察空间,而不会污染测试环境。

优先考虑道德AI

与大多数技术发展领域一样,人工智能总是存在风险。但Kitware采取的方法是找到这项技术的最佳用途,并将其用于好的方面,我们鼓励其他人也这样做。我们期待与我们的客户和合作伙伴继续这项工作,因为他们寻求发展人工智能能力的道德和负责任的。联系我们的AI团队了解更多关于Kitware如何帮助您将道德AI集成到您的软件和算法。

留下一个回复

X