5 月 24 日消息,微软推出了一款由人工智能(AI)驱动的内容审核服务型产品 ——Azure AI Content Safety(Azure AI 内容安全服务),旨在降低社区环境中的负面信息。

该产品提供了一系列经过训练的 AI 模型,能够检测图片或文本中与偏见、仇恨、暴力等相关的负面内容,并可以理解并检测包含八种语言的图片或文本,为被标记的内容严重性进行打分,指示人工审核员哪些内容需要采取行动。

Azure AI 内容安全服务内置于 Azure OpenAI 服务中,并向第三方开发者开放,支持包括英语、西班牙语、德语、法语、中文、日语、葡萄牙语、意大利语在内的八种语言。Azure OpenAI 服务是一项由微软管理、以企业为中心的服务产品,旨在让企业访问 AI 实验室 OpenAI 的技术并增加治理功能。与其他同类型产品相比,Azure AI 内容安全服务能更好地理解文本内容和文化背景,在处理数据和内容时更加精准。

微软表示,与其他同类型产品相比,该款产品在公正性和理解上下文方面有显著改进,但该款产品仍需要依赖人工审核人员标记数据和内容。这意味着最终其公正性还是取决于人类。而在处理数据和内容时,人工审核人员可能带着自己的偏见,因此依然无法做到完全中立审慎。

而在处理涉及机器学习视觉感知的议题时,因由 2015 年,谷歌的 AI 图像识别软件曾将有色(黑)人种标记成猩猩,引发巨大争议事件影响。在八年后,现在的科技巨头们仍担心“政治正确”“重蹈覆辙”。而本月早些时候,OpenAI 首席执行官山姆・阿尔特曼在美国参议院小组委员会听证会上,呼吁政府对人工智能(AI)进行监管。他指出,如果这项技术出错,会错得很严重,会对世界造成重大伤害。IT之家提醒,即使是先进的 AI 技术也可能被滥用或误用,因此对 AI 进行监管和规范至关重要。

推荐内容