着大模型在学习、工作中的广泛应用,其伴生问题也日益凸显,如生成虚假信息、冲击学术诚信等,精准识别 AI 生成内容成为亟待解决的问题。南开大学计算机学院媒体计算实验室的研究成果为解决该难题提供了可行方案。现有检测方法的困境:目前 AI 生成内容检测主要有基于训练的检测方法和零样本检测方法两种路线。但多项研究表明,现有检测方法在应对复杂现实场景时面临困境,容易出现误判。例如,《荷塘月色》《流浪地球》等
AI系统新型漏洞:图像重采样攻击解析1. 漏洞原理与技术细节Trail of Bits研究人员发现,攻击者可通过图像重采样过程向AI系统注入恶意指令。具体流程如下:隐藏指令:在高分辨率图片中嵌入肉眼不可见的恶意指令(如特定色块组合);触发漏洞:当AI系统自动降采样(如双三次插值算法处理)时,隐藏内容会转变为可读文本;数据窃取:大语言模型误将生成的文本视为用户输入并执行,导致
智谱AI开源的GLM-4.5大模型,在工具调用能力上确实取得了显著进展,甚至在某些权威测试中超越了Anthropic的Claude Opus 4.1,同时成本大幅降低。下面是一个关键信息对比表格,帮你快速了解:GLM-4-5 与 Claude Opus 4.1 关键特性对比特性维度智谱 GLM-4-5Anthropic Claude Opus 4.1发布方智谱AI (中国)Anthropic (美
苹果AirPods Pro 3的实时翻译(Live Translation)功能在欧盟地区无法使用,主要是受欧盟《数字市场法案》(DMA)中关于互操作性的强制性要求影响,而非直接源于数据保护条例(如GDPR)或《人工智能法案》。为了更清晰地了解情况,我汇总了一个简表:方面详情来源受影响功能AirPods Pro 3, AirPods 4, AirPods Pro 2 的实时翻译(Live Tran