导语:随着2024年全球各大民主国家的选举日益临近,开放AI(OpenAI)公司揭露了其为确保选举完整性而采取的一系列策略。这些措施包括防止滥用、提升AI生成内容的透明度,以及改善对权威投票信息的获取。
背景:随着人工智能技术在各行各业的广泛应用,其在选举过程中的潜在影响引起了广泛关注。开放AI作为AI领域的先驱,其如何处理和预防AI技术在选举中的滥用,成为行业的焦点。特别是在全球最大的民主国家即将举行选举的背景下,这一议题显得尤为重要。
为了保护选举的完整性,开放AI强调了其平台安全工作的重要性。公司的跨职能团队正致力于防止AI技术被滥用,如制作误导性的“深度伪造”、大规模影响行动或仿冒候选人的聊天机器人等。开放AI通过红队测试、用户和外部合作伙伴的反馈,以及构建安全缓解措施来应对这些风险。
开放AI正致力于提高图像来源的透明度,包括检测用于生产图像的工具。今年早些时候,公司将实施内容来源和真实性联盟的数字凭证,用于由DALL·E 3生成的图像。此外,开放AI还在测试一种新工具——来源分类器,用于检测由DALL·E生成的图像。
在美国,开放AI与国家秘书协会(NASS)合作,指引ChatGPT用户访问CanIVote.org——一个关于美国投票信息的权威网站。当用户询问与选举程序相关的问题时,ChatGPT将提供正确的指引。这种做法将为公司在其他国家和地区提供权威投票信息的方式提供参考。
开放AI的这些措施显示出公司对于保护民主过程的承诺,以及对新技术可能带来的挑战的清醒认识。通过不断完善和调整策略,公司旨在确保其工具和技术能在加强社会公共事务的同时,最大程度地减少潜在的负面影响。未来几个月,开放AI将分享更多相关工作的进展,并期待与全球合作伙伴一起防止工具在今年全球选举中的潜在滥用。
资讯、工具、教程、IT服务!
扫描以下二维码加群
告诉管理员您遇到的问题
我们会第一时间为您挑选优质教程和帮您解决问题