(资料图)
编程客栈() 5月8python日消息:据韩联社消息,虽然三星电子等大公司正在限制内部使用生成人工智能 (AI),现在公共部门也出现了抑制 AI 使用的氛围。
日前据业内人士和当局透露,韩国国家情报院提出对各部门公务员的要求注意事项,强调在使用 OpenAI 的 GPT 系列时,只能输入公开信息,科学部、信息通信部等部门也向相关部门提供指引,它发布了 AI 安全指南以供遵循。
开发深度LBAdUQ学习算法并被称为人工智能教父的 Jeffrey Hinton 博士在服务 Google 十年后辞职,并警告 AI 的危险。虽然政府正在主管制订数android字平台政府的蓝图,考虑将超级巨大的 AI 作为基础设施使用,但在当前形势下,也有可能难以将 AI 用于公共事务。
因此,有人声称政府应该在建立超级巨大的 AI 模型和云基础设施方面发挥领导作用。由韩国智能信息社会研究院 (AI Future Strategy Center) 的高级研究员尹昌熙撰写的题为「大规模语言模型基础上引入公共领域超大型 AI 的方向」的报告提出:「在包括敏感信息的国家信息方面,需要采用『GOV-GPT』类似的混合方法,在内部开发服务。」
他指出很难通过控制使用提示命令等方法防止敏感或机密信息泄漏到公共部门。同时,报告还建议,当在公共部门使用 Open AI 的 GPT 系列或 Naver 的 Hyperclova 等私有 AI 模型时,应将 AI 模型直接安装和使用在政府自己的云 (G Cloud) 上,而不是通过应用程序接口 (API)。
报告称:「从工作效率、前进和公共服务提高的角度来看,判断面向公共目的的超级巨型 AI 将是不可或缺的服务,但是通过建立政府主导的 AI 和 G Cloud 等基础设施,保持机构的数据安全和高效地管理LBAdUQ其资源至关重要。」