当前位置: 首页 » 资讯 » 大专院校 » 正文
西安建大科研团队破解AI虚假信息识别与治理难题
放大字体  缩小字体 发布日期:2025-12-23  来源:陕西日报  浏览次数:4
核心提示:本报讯(记者吕扬)打开手机,精美的照片、有趣的视频、流畅的文章,到底是人类的作品还是人工智能(AI)的创作?这已成为全球关

本报讯 (记者 吕扬)打开手机,精美的照片、有趣的视频、流畅的文章,到底是人类的作品还是人工智能(AI)的创作?这已成为全球关注的问题。12月22日,记者从西安建筑科技大学获悉:该校科研团队在AI虚假信息识别与治理研究领域取得重要进展,相关研究成果近日发表在《自然》子刊《自然—通讯》杂志上。

随着生成式人工智能技术的广泛应用,虚假信息的生产与传播方式正在发生深刻变化。与传统人工编造的谣言不同,AI虚假信息在语言流畅性和结构完整性方面更具迷惑性,给识别与治理带来了新的挑战。

西安建筑科技大学管理学院智能管理与决策团队将研究视角从“如何使用AI识别虚假信息”转向“AI在语言理解与生成层面存在哪些内在局限”,从心理语言学和计算语言学的交叉视角出发,系统分析了AI真实内容、AI虚假内容与人类文本在语言特征上的差异,并进一步探讨哪些语言信号有助于提升虚假信息的识别能力。

“研究首次提出并验证了‘AI虚假内容的质量调节效应’,即随着生成内容质量的提高,AI文本在创造性、表达规范性和整体可读性上逐渐逼近人类写作,其可被检测的语言差异不断减弱。”团队的张新生教授说,这一发现表明,当AI被用于高质量“洗稿”或细节捏造时,无论是普通读者,还是现有依赖大型语言模型的检测工具,其识别难度都会显著增加。

这一研究结果揭示了单纯依赖语言特征或大型模型进行虚假信息检测面临的潜在风险,为理解AI生成文本的认知加工机制提供了新的证据支持,也为AI虚假信息研究提供了更具解释力的理论框架。

“本研究为政府监管部门、互联网平台及相关管理机构在制定AI信息治理策略、优化AI虚假检测技术和完善风险预警体系方面提供了重要参考和关键技术支撑。”张新生表示,团队未来将深入开展多模态AI虚假信息的治理研究,为推动人工智能安全应用与社会治理现代化提供更坚实的科学依据。

 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论