编译 | 一支笔

编辑 | 云鹏

智东西5月8日报道,近日,微软发布了首个年度《负责任的人工智能透明度报告》。报告概述了微软2023年制定并部署的各种措施,以及其在安全部署AI产品方面取得的成就,如创建了30个负责任的人工智能(RAI)工具,扩大了RAI团队等。另外,微软在Azure AI中推出了新工具,以提高其AI输出的质量,同时预防系统被恶意使用。

去年,生成式AI取得了巨大进步,人们可以利用文字和微软的辅助工具生成逼真的视觉效果,这些工具可以用于多种用途,如总结会议内容、帮助撰写商业提案,甚至根据冰箱里的食材建议晚餐菜单。尽管微软一直在努力确立构建AI应用程序的原则和流程,为用户提供其所需的体验,但大规模部署生成式AI产品也带来了新的挑战和机遇。

在微软,首席负责任AI官Natasha Crampton负责定义和管理公司的RAI方法,而微软负责AI责任的首席产品官Sarah Bird负责推动整个产品组合的RAI实施,以下是两位分享的,关于如何负责任地大规模构建生成式AI的7个主要观点。

一、让RAI成为基础而非事后的想法

Crampton认为,RAI绝不是单个团队或某位专家的责任,而是微软全体员工的责任。例如,每位从事开发生成式AI应用程序的员工都必须遵循公司的RAI标准。这些标准包括评估新AI应用程序的潜在影响,制定管理未知故障的计划,以及识别限制或变化,以便客户、合作伙伴和使用AI应用程序的人员能够做出明智的决策。

“在RAI工作中,绝不能在交付产品之前随意添加事后想到的事项或要求,这些事项应该在开发过程中就要考虑和纳入到检查清单之中。”Crampton说,“公司的每个员工都应该在最初开发产品时就思考,如何让AI应用更加负责任。”

二、与客户持续互动

在Bird看来,AI产品开发是一个动态的过程。要实现生成式AI的规模化,需要迅速整合数十个试点项目的客户反馈,并与客户持续互动。同时,了解人们最初使用新技术时可能出现的问题,并思考怎样做才能使用户的体验感更好。

因此,微软决定在其Bing搜索引擎上的Copilot功能中提供不同的对话风格选项,包括更有创意、更平衡或更精确的模式,以满足不同用户的需求。

Bird称:“我们应该与客户合作,开展试验,让客户在实验阶段内尝试一些新的产品,在此过程中,我们可以吸取教训,并相应地调整我们的产品。”

三、构建更加集中化的系统

Bird认为,随着微软推出Copilot并将AI功能整合到其产品之中,微软需要构建一套更加集中化的系统,以确保其发布的所有内容都符合同一标准。因此,微软在Azure AI中开发了RAI技术栈,以便团队可以套用相同的工具和流程。

Bird谈到,“技术的发展非常迅速,微软必须一次做好,并将经验最大化地应用到未来的工作中。”

对此,微软AI专家开发了一种新方法,用于集中评估和批准产品的发布。他们采用共识驱动的框架,审查了产品团队在技术栈的各个层面,以及产品发布前、期间和之后所采取的步骤,以便绘制、衡量和管理生成AI潜在风险。此外,他们还考虑了从测试、威胁建模(Threat Modeling)和红队(Red Teaming)中收集的数据。红队是一种测试方法,通过尝试撤销或操纵安全功能,对新的生成式AI技术进行压力测试,以确保其安全性和可靠性。

通过集中审查流程,可以更容易地发现和解决产品组合中的潜在问题,包括漏洞和安全隐患。同时,确保及时与公司及微软以外的客户、开发人员共享信息。

四、告知用户AI生成信息的来源

由于AI系统能够生成难以与真实事物区分的人工视频、音频和图像,因此,用户能够识别AI生成信息的出处或来源变得越来越重要。

今年2月,微软与其他19家公司一起达成了一系列承诺,以打击2024年选举中AI欺骗性使用和“深度造假”的潜在滥用。这些承诺包括阻止用户创建虚假图像误导公众,嵌入元数据(Metadata)识别图像的来源,以及为政治候选人提供声明自己被深度伪造视频的机制。

此外,微软还开发和部署了内容凭证功能(Content Credentials),使用户能够验证图像或视频是否由AI生成。微软的AI for Good Lab也在致力于应对深度伪造带来的挑战,他们的重点是通过技术手段识别深度伪造内容,追踪制造和传播不良内容的行为者,并分析他们的策略。

“这些问题不仅是科技公司面临的挑战,也是整个社会挑战,”Crampton说。

五、将RAI工具交给客户

据报道,为提升AI模型输出的品质并避免其被滥用,微软不仅致力于提供工具和保护措施给客户,同时鼓励他们在使用AI过程中承担责任。这些工具和措施包括开源和商业产品,以及用于创建、评估、部署和管理生成式AI系统的指南。

Bird指出:“我们的重点是,让安全性成为用户的默认选择。”

2023年,微软发布了Azure AI内容安全工具,以协助客户识别和过滤AI模型中的仇恨、暴力等不良内容。近日,微软在Azure AI Studio中新增了一系列新工具,帮助开发人员和客户提升其生成式 AI 系统的安全性和可靠性。

六、探测漏洞阻止恶意“越狱”

随着人们体验到更复杂的AI技术,有些人或会尝试以各种方式挑战系统。这就引发了一种被称为“越狱”的现象,在科技领域,“越狱”指的是试图绕过AI系统内置安全工具的做法。

“我们设计产品时并没有考虑到这些不正当的用途,但是在不断推动技术进步的过程中,人们可能会利用技术的边缘功能来实现一些意外或不合法的目的,”Crampton解释说。

因此,微软不仅在发布新款AI产品之前,对该产品可能存在的漏洞进行检测,而且他们还与客户合作,确保这些客户也能够获得最新的工具,保护他们在Azure上构建的自定义AI应用程序。

七、告知用户AI的局限性

虽然AI在许多方面能让生活变得更轻松,但它仍然存在问题。对于用户来说,验证其所接收到的信息是一种很好的做法。因此,当用户与微软的AI系统进行聊天交互时,微软系统生成的消息末尾都提供了引用来源的链接。

自2019年以来,微软一直在发布名为“透明度说明”的文件,该文件为微软平台服务的客户提供了关于产品功能、限制、预期用途,以及负责任地使用AI的详细信息。微软还在面向消费者的产品中,如Copilot,加入了用户友好的通知功能(User-Friendly Notifications)。这些通知涵盖了风险识别、错误内容生成等主题,同时,提醒人们他们正在与AI互动。

“我们不知道用户将如何使用这项新技术,因此,我们需要听取用户的意见。”Bird认为,随着生成式AI技术及其应用范围不断扩大,为创建能够提供用户期望体验的AI系统,微软必须持续加强系统、适应新的监管要求,并不断更新流程。

结语:实现真正的RAI,需要更多的社会参与及监督

随着AI技术的不断进步,AI在为人们带来便利的同时,也带来了新的挑战和责任,风险识别、深度伪造等新问题,不仅是科技公司面临的问题,也是整个社会需要共同应对的挑战。

在此背景下,微软发布了首个年度《负责任的人工智能透明度报告》报告概述了他们在AI产品部署方面的成就和挑战,强调了风险识别、安全性等问题的重要性,同时呼吁行业和社会共同努力,确保AI的健康发展。

未来,随着AI技术的不断成熟和应用场景的扩展,如何为用户提供更安全、更可靠的AI体验,并确保其应用符合道德和法律的要求,或成为社会面临的一项重要挑战。微软的努力值得肯定,但仍需要更多的社会参与及监督。

来源:微软官方网站

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com