您的位置:首页 >人工智能 >正文

领先的AI研究人员提出了工具箱来验证道德主张

TechForge Media的编辑。在全球技术会议上经常看到一只手拿着咖啡,另一只手拿着笔记本电脑。如果它令人讨厌,我可能会喜欢上它。

来自OpenAI,Google Brain,Intel和其他28个领先组织的研究人员发表了一篇论文,提出了一个用于验证AI伦理主张的“工具箱”。

围绕AI的担忧已从危险的冷漠到停止创新的恐吓者。显然,需要一种系统来实现健康的平衡。

研究人员写道:“人工智能系统的开发方式与开发它们的人所陈述的价值观不一致。” “这导致与AI系统影响有关的关注,研究和行动主义增加。”

研究人员指出,许多参与AI开发的参与者已经在阐明伦理原则方面进行了大量工作,但是如果没有某种方法来验证它们,这些主张就毫无意义。

“乘飞机的人不信任航空公司,因为它开展的宣传活动强调安全的重要性–他们信任它是因为伴随着确保航空安全的技术,规范,法律和机构的基础设施。”

提出的核心思想之一是向开发人员支付发现算法偏差的费用。这种做法在网络安全中已经很普遍。许多公司提供赏金来查找软件中的错误。

作者写道:“偏差和安全赏金将把错误赏金概念扩展到AI,并可以补充现有的工作,以更好地记录数据集和模型的性能限制和其他属性。”

“我们在这里将重点放在发现AI系统中的偏见和安全问题的赏金上,以此作为分析和实验的起点,但请注意,还可以探索其他属性(例如安全性,隐私保护或可解释性)的赏金。”

另一个可能的途径是所谓的“红色团队”,即创建一支专门的团队,该团队采用可能的攻击者的思想来发现计划,组织或技术系统中的缺陷和漏洞。

“了解实验室拥有一支红色团队的知识可能会提高组织在安全性和安全性方面的可信度。”

一个单独的红队不太可能给人太大的信心。但结合其他措施可以大有帮助。来自组织外部各方的验证将是建立对该公司AI开发的信任的关键。

“第三方审核是由外部和独立审核员(而不是被审核的组织)执行的审核形式,可以帮助解决有关自我报告准确性的动机的担忧。”

“只要他们具有有关AI系统活动的足够信息,对真实性具有强烈声誉和专业动机的独立审计师就可以帮助验证有关AI开发的主张。”

研究人员强调,第三方审计的当前障碍是,尚无专门针对AI的技术或最佳实践。诸如索赔-论据-证据(CAE)和目标结构表示法(GSN)之类的框架可能会提供一个起点,因为它们已被广泛用于安全关键型审计。

还建议将涵盖AI开发过程所有步骤的审计线索作为规范。研究人员再次指出,商用飞机是安全性至关重要的系统,他们使用飞行数据记录器每秒捕获多种类型的数据并提供完整的日志。

“标准制定机构应与学术界和工业界合作,为AI系统的安全关键型应用制定审计追踪要求。”

验证AI伦理主张的面向软件的方法的最终建议是使用隐私保护机器学习(PPML)。

隐私保护机器学习旨在在训练或评估时以及部署期间保护机器学习中使用的数据或模型的隐私。

本文涵盖了三种已建立的PPML类型:联合学习,差异隐私和加密计算。

“在可能的情况下,AI开发人员应贡献,使用或以其他方式支持从事PPML的开源社区的工作,例如OpenMined,Microsoft SEAL,tf加密,tf联合和nGraph-HE。”

研究人员代表着世界上一些最着名的机构,提供了一套全面的方法包,任何参与AI开发的组织都可以为治理和广大公众提供保证,以确保该行业可以负责任地发挥其全部潜力。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。