OpenAI 希望 GPT-4 能够帮助解决内容审核的问题


(资料图片仅供参考)

编程客栈() 8月16日 消息:OpenAI 正在努力解决大规模内容审核的难题。他们声称,他们的 GPT-4技术可以取代成千上万的人工审核员,并且准确度几乎相同,更加一致。如果这是真的编程,那么这个科技领域最困难、最费脑力的任务可以被机器所接手。

OpenAI 在一篇博文中宣布,他们正在使用 GPT-4来开发和完善自己的内容政策、标记内容和做出决策。OpenAI 安全系统负责人 Lilian Weng 表示:“我希望看到更多的人以这种方式来编程客栈维护信任、安全和节制。” 这对于我们如何利用人工智能来解决现实世界问题是一个非常好的进步。与传统的内容审核方法相比,OpenAI 有三个优势。

首先,他们声称人们对政策的解释存在差异,而机器的判断是一致的。这些指导方针可能很长,而且经常变化。虽然人类需要大量的培训来学习和适应,但 OpenAI 认为大型语言模型可以立即实施新的策略。其次,据称 GPT-4可以在几小时内帮助制定新的政策。起草、标记、收集反馈和完善的过程通常需要几周甚至几个月的时间。第三,OpenAI 提到了那些接触有害内容的工人的福利,比如虐待儿童或酷刑视频。

在近二十年的社交媒体和在线社区的发展中,内容审核仍然是在线平台面临的最大挑战之一。Meta、Google 和 TikTok 都依赖大量的版主,他们必须浏览可怕且经常造成创伤的内容。其中大多数位于工资较低的发展中国家,为外包公司工作,并且由于只接受最低限度的心理健康护理而面临心理健康问题。

然而,OpenAI 自身也严重依赖于点击工作者和人工工作。成千上万的人(其中许多来自肯尼亚等非洲国家)负责对内容进行注释和标记。这些任务可能令人不安,工作压力很大,而且工资很低。虽然 OpenAI 声称他们的方法是新颖且革命性的,但多年来,人工智能一直被用于内容审核。马克・扎克伯格对完美自动化系统的愿景尚未完全实现,但 Meta 使用算法来控制绝大多数有害和非法内容。YouTube 和 TikTok 等平台依赖类似的系统,因此 OpenAI 的技术可能会吸引那些没有资源开发自己技js术的小公司。

每个平台都公开承认大规模完美的内容审核是不可能的。无论是人类还是机器python都会犯错误,尽管错误的百分比可能很低,但仍然有数以百万计的有害帖子被漏掉,还有许多无害的内容被隐藏或删除。特别是,对于那些具有误导性、错误性和攻击性的内容(不一定是非法的),自动化系统面临巨大挑战。即使是人类专家也很难给这些帖子贴上标签,而机器也经常出错。这同样适用于记录犯罪或警察暴行的讽刺或图像和视频。

最终,OpenAI 可能有助于解决他们自己技术所引发的问题。像 ChatGPT 这样的生成式人工智能或该公司的图像创建者 DALL-E 使得大规模创建错误信息并在社交媒体上传播变得更加容易。尽管 OpenAI 承诺让 ChatGPT 更加客观,但 GPT-4仍然会制造与新闻相关的虚假信息和错误信息。

推荐DIY文章
当智能健身走向全民化:AEKE轻力量家庭智能健身房引领未来
海艺AI:迎合“AI时代”发展潮流,刷新绘图市场传统认知
布局产业新高地!海星医药健康创新园B区奠基仪式隆重举行
未来五年500亿投入打底,北汽蓝谷锚定细分市场增量
【展会直击】华秋慕尼黑上海电子展精彩ing,助力电子产业高质量发展!
桂花网蓝牙网关助力司乘人员职业健康监测
精彩新闻