DeepMind新研究评估生成式AI的社会和道德风险

10月23日消息,10月19日,谷歌DeepMind于官网发布一篇新论文,提出了一个三层框架来评估生成式AI系统的社会和道德风险,包括对AI系统能力、人类互动和系统影响的评估。该研究以早期研究为基础,确定了大型语言模型的潜在风险,例如隐私泄露、工作自动化、错误信息等,并介绍了一种全面评估未来这些风险的方法。通过绘制安全评估的当前状态,研究团队发现了三个主要的安全评估差距:背景、针对特定风险的评估以及多模态。
搜索