AI 38% high 2026-01-22

Enhancing Public Digital Literacy and Improving AI Governance

提升公众数字素养,完善人工智能治理

科技日报 xinhua
This article discusses the challenges of generative AI governance across technical, cognitive, and social responsibility dimensions, and argues that enhancing public digital literacy is crucial for fostering responsible technology use and sustainable AI development.
Document Text 2,528 characters
“十五五”规划建议提出,全面实施“人工智能+”行动,并将“加强人工智能治理”作为数字强国建设的重要部署。当前,以大语言模型为代表的生成式人工智能,正以其前所未有的创造力、拟真度和普及速度,成为推动社会变革的重要驱动力量。它不仅是提升效率的工具,更直接参与内容生产与意义建构过程,正在重塑信息生产机制、文化传播形态以及人们理解世界的方式。然而,生成式人工智能在释放巨大潜能的同时,也引发了深度伪造、算法偏见、知识产权争议以及信息信任受损等一系列伦理与社会风险。因此,迫切需要提升公众数字素养,引导公众成为负责任的技术使用者和伦理规范的积极共建者,从而推动生成式人工智能实现健康、可持续的发展。<br> 生成式人工智能治理面临挑战<br> 生成式人工智能治理面临的挑战,是技术、认知和社会责任三个维度的复杂耦合。<br> 第一,技术层面,算法歧视与“黑箱”风险双重叠加。生成式人工智能模型训练所依赖的大规模数据集,往往内含历史性且隐性的社会偏见。这些偏见在模型设计、算法处理和训练数据等多个环节中相互叠加,共同助长了有害的刻板印象,进而导致生成结果出现歧视性倾向。同时,受算法工程师技术操作能力和算法企业内部数据保护机制的限制,内部结构和参数的不可知,导致了算法“黑箱”的出现,由此严重削弱了模型的可解释性,进而阻碍了伦理风险的有效追溯和责任的明确界定。<br> 第二,认知层面,公众批判思维与信息甄别能力不足。技术风险的治理最终要落脚于社会主体,而公众认知能力的不足是风险转化为现实危害的“放大器”。首先,过度依赖AI削弱了公众的独立思考能力。生成式人工智能的便捷性及其生成内容呈现出的“高度可信性”,正在削弱公众的主动思考与判断能力,加剧人的认知惰性和对技术的过度依赖。当公众习惯于直接采纳AI提供的答案时,其对信息的主动求证、批判质疑和对复杂问题的独立分析能力将逐渐退化。其次,信息甄别不足助长风险传播。普通公众缺乏甄别AI生成内容(尤其是深度伪造音视频、文本)的技术知识和批判工具,极易将虚假信息视为真实信息。这种甄别能力的不足,使虚假信息得以借助社交媒体迅速扩散,并在短时间内放大其影响,对社会信任基础造成冲击。最后,“信息茧房”固化认知偏差。人工智能通过个性化推荐和内容过滤机制,在提升信息匹配效率和用户体验的同时,也可能不断强化既有偏好,将用户困于“信息茧房”之中。这种机制将加剧用户仅接触到符合其既有认知的内容,从而固化认知偏差,降低其对多元视角的包容性,不利于社会共识的形成。<br> 第三,社会责任层面,安全风险与公平缺口并存。生成式人工智能治理的突出难题,在于责任主体与责任边界尚不清晰,相关社会责任与问责机制仍有待完善。在法律上,由于技术链条的复杂性,使得责任主体界定模糊,传统法律归责原则难以适用,由于缺乏内置保护机制,致使模型训练和用户交互过程中极易发生个人隐私数据泄露,削弱个体信息控制权。在安全上,人工智能若被用于辅助生成针对关键基础设施的网络攻击,或被滥用于传播虚假情报,可能引发系统性、跨层级的安全风险渗透,对公共秩序和社会稳定构成威胁。在经济上,技术红利的高度集中,加剧了技术公平缺口,形成了新的社会分化。生成式人工智能对技术和数据资源的高度依赖,可能强化少数企业的技术优势,带来市场集中甚至垄断的风险,并加剧不同国家和人群之间的“AI鸿沟”,进一步扩大贫富差距与社会分化,引发严重的不公问题。<br> 三个维度为人工智能治理提供支撑<br> 数字素养是数字社会公民在学习、工作和生活中应具备的一系列能力的集合,包括数字信息获取、制作、使用、评价、交互、分享、创新、安全保障、伦理道德等能力。它要求个体能够有效且批判地获取和评估信息,娴熟运用数字工具创造知识,并能适当地利用数字化手段解决工作、学习和社会实践中的问题。数字素养作为一种综合性的社会能力,其主要通过技术、认知和社会责任三个维度,全面地为生成式人工智能治理提供坚实的认知基础、行动框架和道德约束力。<br> 第一,加强数字知识与技术的理解与应用。随着生成式人工智能的快速发展,社会对数字能力的要求已从“会用工具”提升为“懂原理、能协作、善于评估”。公众只有理解模型的基本运行逻辑、数据驱动特征与潜在偏差来源,才能在使用生成式人工智能工具时保持必要的判断力,避免将算法结果视作“绝对真理”。在技术应用层面,数字素养推动公众形成“人机协作”的新型工作方式,使公众既能够高效调用智能工具提升生产与学习能力,又能识别模型局限、改写提示策略、调整生成路径,实现对人工智能的可控使用。数字知识的普及程度,直接决定了社会整体能否以理性、稳健的方式拥抱生成式人工智能,从而为其治理奠定坚实的技术认知基础。<br> 第二,加强数字信息的获取、甄别与共享,以构建可信公共知识空间。生成式人工智能在内容生成、信息传播方面能力空前,但也因此放大了虚假信息、算法幻觉与深度伪造的风险。数字素养的核心之一,就是培养公众的信息甄别、事实校验与风险提示能力,使每个人都能够在高速流动的数字生态中“看清楚”“辨得出”“说得明”。除了获取与甄别,信息交流与共享同样是生成式人工智能治理的重要环节。具备良好数字素养的公众不仅能基于可靠信息参与公共讨论,还能通过建设性表达推动形成健康的数字公共领域,为政策制定与平台治理提供真实可信的社会反馈。公众数字素养的提升,有助于构建多方协同的治理格局,推动生成式人工智能走向公平、可责、透明的发展方向。<br> 第三,加强数字安全与社会责任意识,让“技术向善”成为社会共识。生成式人工智能的治理不仅依赖制度设计与平台规则,更依赖个人在使用过程中的自律意识与社会责任感。数字素养强调公众对数据隐私保护重要性的理解与认知,能够识别算法操控、个人信息泄露及模型滥用等风险,做到“不制造风险、不放大风险、不让风险外溢”。更重要的是,数字时代的公众需要具备基本的技术伦理意识,自觉约束自身对生成式人工智能的使用行为,不编造虚假内容、不助长歧视与偏见、不用技术侵害他人权益。公众的责任意识越强,生成式人工智能越能朝“向善”方向发展,其治理越能落到实处。<br> (作者:张橦 张慧 均系大连理工大学人文学院副教授)
Topics
artificial intelligence digital literacy technology governance
Metadata
Publisher 科技日报
Site xinhua
Date 2026-01-22
Category report
Policy Area 人工智能治理
CMS Category 媒体报道
Keywords 人工智能,生成,信息,社会,数字