《AI Next》是微软亚洲研究院推出的一档利用 AI 技术制作的播客,内容聚焦 AI 前沿技术、科研趋势与社会影响。第一季主要围绕当今智能发展的核心议题,探索前沿趋势。
在第五期节目中,我们邀请到微软亚洲研究院副院长谢幸博士,共同探讨 AI 与社会的深层关联。随着 AI 从单纯的工具逐步演进为人类的“伙伴”,一系列关乎技术走向与社会共生的关键问题也浮出水面:AI的价值观究竟源自何处?如何构建可信任、负责任的 AI 系统?技术飞速迭代时,我们该如何让 AI 与个人、社区、社会和谐共生,既增强人类能力,又坚守人的主体性?
嘉宾介绍
谢幸博士
谢幸博士现任微软亚洲研究院副院长,其研究团队目前专注于数据挖掘、社会计算与负责任人工智能等领域,致力于推动前沿技术的发展与跨学科融合。
谢幸博士在国际学术界具有广泛影响,曾获得一系列重要奖项,包括:2019年ACM SIGSPATIAL十年影响力论文奖、中国计算机学会“青竹奖”,2020年ACM SIGSPATIAL十年影响力论文荣誉奖,2021年ACM SIGKDD China时间检验论文奖,2022年ACM SIGKDD时间检验论文奖,2023年IEEE MDM时间检验论文奖与中国计算机学会自然科学一等奖,并于同年入选DeepTech“中国智能计算科技创新人物”。2025年,谢幸博士被授予“北京市劳动模范”荣誉称号。
谢幸博士是国际计算机学会会士(ACM Fellow)、电气电子工程师学会会士(IEEE Fellow)和中国计算机学会会士。他曾多次受邀在全球顶级学术会议上担任大会主题报告讲者,并长期担任多个全球学术期刊的编委。此外,他还曾担任多个全球顶级学术会议的程序委员会共同主席。
也欢迎大家在小宇宙、喜马拉雅和Apple播客订阅、收听、分享!



作为一档由 AI 合成的播客栏目,《AI Next》播客音频和宣传视频背后包含微软亚洲研究院在合成 AI 领域的三项关键技术:VibeVoice 具备自然、富有表现力的语音合成能力,能够为最多4位说话者合成长达90分钟的高质量对话语音,为用户带来更灵动的声音互动感受。VASA 可将静态肖像与音频信号结合,合成情感逼真且拥有细腻面部表情的说话头像,为内容创作及辅助教育提供了全新的呈现方式。TRELLIS 则是一个 3D 物品生成模型,能依据文本提示或图片信息构建相应的 3D 效果,让复杂的概念设计可以在立体空间中被“看见”。目前,VASA 和 TRELLIS 技术可在微软的 Copilot 产品中体验,VibeVoice 也已在 Hugging Face 上开源。三项技术的加持将为内容创造者和听众带来 AI 技术演进的真实体验。
如下是《AI Next》第五期播客内容的文字整理:
主持人:如今 AI 已融入大众的日常生活,图文生成、语音交互、视频创作等应用愈发普及。在工作与生活中,你是如何使用 AI 的?
谢幸:我日常使用 AI 也比较频繁,尤其在研究中,AI 大幅提升了我研读论文的效率。以往读论文仅能依靠推荐来筛选重点、浏览摘要,难以快速获取全文细节,效率偏低。借助 AI,可直接针对论文内容精准提问,快速锁定实验数据、性能差异等关键信息,节省了大量时间,拓宽了文献涉猎范围。
除文献研读外,AI 还能作为高效的问答工具。在跨学科合作时,常会遇到一些陌生的概念,例如心理学领域中用于研究儿童心理成长的“心智理论(theory of mind)”,该理论主要探究人类心智从出生到八九岁的发育过程。此前我对这一概念只有一些粗略的认知,通过向 AI 咨询,它能够结合大量实例,用通俗易懂的语言阐释相关定义及心理学研究成果。
AI 在教育中也能发挥作用。以作文写作为例,让孩子与 AI 互动,AI 可提供写作思路与灵感,如同一位全天候在线的家教,既能帮助孩子提升写作效率,又能引导其思维成长。
AI 在现实使用中存在的盲区
主持人:AI 在改变工作方式的同时大幅提升了效率,但在此过程中,AI 是否会出现安全、公平或社会认知方面的盲区,与预期表现存在偏差?你有过相关经历吗?
谢幸:AI 确实存在这类盲区,具体表现会因任务类型的不同而有所差异。当要求 AI 处理复杂问题时,其结果的准确性和质量往往难以预判。例如,面对一些难度较高的推理题或数学题,AI 有时能顺利解答,但在处理部分难度较低的常识性问题时,却容易出错。若使用者本身对相关领域不够了解,便很难判断 AI 给出结果的准确性。这一现象表明,尽管 AI 具备一定的推理能力,但仍存在“幻觉”问题或知识匮乏的情况。
文化与地域差异也会导致 AI 出现认知盲区。例如“结婚前男性或女性需准备什么”这个问题,不同 AI 模型的回答存在明显差异。由于训练数据所承载的文化背景不同,AI 的回答会呈现出相应的文化倾向。例如,某一国家的 AI 模型可能会提出“女性需先学习做饭”的观点,这在我们的语境下明显存在较大偏见;而西方的 AI 模型虽不会有此类表述,但回答可能会反映出西方社会的价值观。我们在对不同模型进行测试时,清晰地观察到了这种文化倾向的差异。
Societal AI:AI与社会和谐共生的解决方案
主持人:近年来,为了弥合这种人和AI间的价值差异,你们团队一直着力推动Societal AI(社会责任人工智能)这一新的研究方向。在你看来,Societal AI 主要致力于解决 AI 领域的哪些问题?
谢幸:Societal AI的核心目标是解决 AI与人类社会的共存问题。当前,AI的能力已实现大幅跃升,有时甚至达到或超越人类水平。以往,机器学习及相关算法多被视为工具,而随着 AI 能力的增强,其与人类的关系正从工具向“伙伴”或“Copilot(智能副驾驶)”转变,对社会的影响力日益扩大。我们希望Societal AI能让AI更好地跟人类共存,带来更多收益,而不是风险。
主持人:Societal AI 与我们常提及的Responsible AI(负责任的人工智能),或 AI 伦理有哪些区别?
谢幸:本质上来说,它们是一脉相承的。以往的 Responsible AI 和 AI 伦理研究,大多将 AI 视为工具或对象,较少从社会科学的视角或社会层面审视相关问题。而现在我们更强调跨学科合作。
我们发现AI 的快速发展带来了一系列新挑战,包括如何评估 AI 在不同任务中的能力、如何实现 AI 与人类价值观的对齐、如何保障 AI 的安全性及文化多样性等。这些问题的界定与解决,往往需要社会科学学者的参与。
因此,Societal AI 一方面聚焦于研究 AI 对社会各领域(如教育、就业等)的影响;另一方面,积极引入社会科学的理论与方法,为 AI 相关问题的定义、解决方案的提出提供支撑。
主持人:对于Societal AI,你们是在怎样的技术演进和社会观察下,开始意识到需要做一个这样更系统的框架的?
谢幸:早在六七年前甚至更早,我们便已开始Responsible AI 及 AI 伦理相关的研究。三年前,ChatGPT 的发布使得对话、自然语言处理等诸多此前被认为难以攻克的问题,在性能上实现了质的飞跃。传统的性能评测体系对随之而来的价值观对齐、性能评测失效等新挑战不再适用。
主持人:当 AI 从实验室走向教育、医疗、媒体、社交等真实的社会场景时,哪些现象或挑战让你们团队觉得,如果不将社会系统纳入 AI 设计考量,其发展可能会误入歧途?
谢幸:以 AI 价值观与文化对齐研究为例,AI 学者通常更关注算法层面的优化。例如,如何更高效、精准地实现对齐。但这一研究的关键前提是要明确核心问题:对齐的目标是什么?AI 的价值观应如何定义?这些问题的解答必须将社会科学、社会学者及社会系统纳入设计考量。若脱离这些因素,仅从计算机视角定义 AI 的价值观,必然会与社会及人类的真实需求脱节。事实上,社会科学领域对于人类价值观的定义与框架已形成了深厚的研究积累,我们应当充分借鉴这些成果,来明确研究问题、开发评测方法及数据集。
AI 价值观:从抽象概念到可量化评测
主持人:AI 系统的价值观较为抽象,能否具体解释其含义?
谢幸:理解 AI 系统的价值观,可结合 AI 伦理的演进历程展开。过去,人们倾向于将价值观设定为明确的目标函数,通过硬性编码融入学习算法进行优化。而当前的 AI 不仅能够理解指令,还能洞察语言背后隐藏的复杂意图。
在跨学科合作中,我们正尝试引入心理学中的经典理论框架,为 AI 系统的价值观构建画像。例如,施瓦茨基本价值观理论(Schwartz Theory of Basic Human Values),我们会参考这一理论观察 AI 在决策过程中如何在“自我超越”与“自我增强”、“开放变革”与“保守传统”之间寻求平衡。该理论包含10 个维度,能辅助量化测评 AI 是否具备类似人类稳定且连贯的价值优先级。再比如,道德基础理论(Moral Foundations Theory)明确了人类道德的核心维度,包括关爱与伤害、公平与作弊、忠诚与背叛、权威与颠覆、神圣与堕落,这一理论可用于判断 AI 在与人类合作时,是否能够敏锐感知这些道德敏感点。
无论将 AI 称为“伙伴” 还是“Copilot”,它进入人类社会后,必须遵循公认的社会规范,而这些规范的底层逻辑正是基于上述成熟的价值观框架。我们开展的跨学科研究,本质上是探索如何将人类历经数千年演化形成的微妙道德直觉,转化为 AI 能够理解并执行的原则。
主持人:人们对于“好的 AI 行为”尚未形成统一认知,不同个体、文化、社会制度及代际之间的价值偏好存在差异。在多元且冲突的价值背景下,AI 系统应如何选择和权衡,优先对齐何种价值观?
谢幸:人类的价值观是历史演化的产物,不同区域、不同群体的价值观存在天然的多样性,AI 系统应当尊重这种多样性,而非追求全球统一的价值观。AI 需要具备一定的灵活性,能够与不同区域、群体乃至个体的价值观实现对齐。
基于此,我们的一项核心工作是构建跨文化、跨区域的评测数据集,结合人工标注与 AI 标注,从价值观多样性、灵活性等维度,对 AI 的价值观对齐能力进行全面评价。这也是我们正在推进的“Value Compass(价值观罗盘)”项目的主要目标。目前我们已构建起包含评价方法与对齐策略的评测框架。
主持人:对大模型进行价值观评测,对其未来发展具有哪些实际意义?
谢幸:评测具有引导作用。大模型的开发过程,往往会以评测结果为依据,指导训练数据的收集、训练目标的设定。我们希望价值观和文化多样性,未来能成为大模型训练的核心目标之一,不能仅聚焦在准确性和效率上,还需关注与人类社会紧密相关的目标。
AI 偏见与风险的深层根源及应对之策
主持人:结合 AI 的发展历程及 Societal AI 的研究积累,你认为当前 AI 系统出现偏见、伦理争议及安全风险的深层根源是什么?
谢幸:其一,AI 的训练数据本身就蕴含大量人类社会中的偏见、伦理争议及安全风险。大模型基于人类社会产生的语言数据进行训练,自然会反映出这些固有问题。AI还具有放大效应:在现实社会中,少数人的偏见可能不会对整体产生重大影响,但 AI 的广泛应用会使其影响力急剧扩大,加速并放大偏见。
其二,当前 AI 虽具备较高的智能水平,但最初的训练并未将安全或价值观作为核心目标。因此,需要通过更多研究,将社会化目标融入到AI 的底层训练过程中。
主持人:面对这些根源问题和挑战,学界和业界也都在倡导构建更公平、透明和可控的AI,那么,现在有哪些值得关注的趋势或者突破?
谢幸:当前涌现出很多研究方向,除了价值观对齐与评测外,AI 的可解释性研究也出现了新的演化趋势。随着 AI 模型规模扩大、复杂度提升,传统的通过简化模型实现可解释性的方法已难以奏效。当前的可解释性研究更多将 AI 视为“黑箱”,从外部进行探测,分析其输出结果的产生原因,这与脑科学的研究相似——大脑作为复杂系统,研究者需通过多维度探索来解释其输入与输出的关联机制。
另外,学界和业界也非常关注AI对社会的影响。例如,在教育领域,探索 AI 时代人类所需的能力;在就业方面,重构人机分工与协作模式;在宏观社会学层面,剖析 AI 对阶层流动及社会公平的潜在冲击。
近期,我们联合 AI 领域与社会科学领域的学者编写了一本白皮书,系统梳理了 Societal AI 领域的十大核心研究问题,对上述趋势与焦点问题进行了详细阐述。
主持人:基于现有观察与研究发现,你们团队围绕 Societal AI 开展了哪些具体的科研探索?
谢幸:目前团队的研究重点主要集中在两个方向。首先,是价值观对齐与 AI 评测体系的构建。我们正与剑桥大学、北京师范大学等高校的心理测量学者开展深度合作,借鉴人类心理测量中成熟的理论与方法论,构建科学、系统的 AI 能力评测框架。通过拆解创造力、辩证思维及复杂问题解决能力等维度,我们试图绘制 AI 的“能力地图”,探究各能力指标间的相关性。这种“可预测”的评测旨在厘清 AI 的能力边界,确保其在未知社会场景下的表现稳定、受控。
其次,围绕“AI 伙伴”展开研究,探索如何推动 AI 从工具向人类伙伴转变,让AI更有“人情味”。例如,实现 AI 与人类的情感协作,评测 AI 在社会智能(social intelligence)、心智理论等方面的能力。目前,我们已启动 AI 在教育、职业领域影响的初步探索。
人机信任的核心挑战与理想共生图景
主持人:要实现 AI 从工具到伙伴的转变,建立深层的伙伴级信任,面临的最大技术与伦理挑战是什么?
谢幸:建立信任确实极具挑战,人类之间的信任建立基于长期的合作经验,而 AI 作为新兴事物,与人类建立信任需克服多重障碍。从技术层面来看,首要挑战是 AI 能力的“可预测性”,若 AI 的表现无法预判,便难以对其产生信任。我们需要明确 AI 完成任务的成功概率与出错风险。而这种对能力的预判,在人类之间也需要经过长时间合作才能建立。
另一方面,是探索如何建立 AI 与人类的协同合作关系。以医疗场景为例,AI 生成诊断结果后,医生需参考该结果辅助诊疗。医生对 AI 的信任,既取决于结果的正确率,也依赖于对 AI 诊断逻辑的理解,若无法理解 AI 得出结论的过程,信任便难以建立。因此,AI 与人类信任关系的构建,不仅需要技术层面的突破,还需经过长期的应用实践与人机协作经验积累。
主持人:理想状态下的Societal AI,应该如何与个人、社区、组织机构及整个社会系统共存?是在增强人类能力的同时,不削弱人的主体性吗?
谢幸:我们期望实现 AI 与人类社会和谐共存,这需要遵循三大原则:
第一,AI 需与人类价值观保持一致,遵循不同区域、群体的社会规范。
第二,AI 价值在于增强人类能力,而非取代人类。在人机协作过程中,人类应保留对 AI 结果的判断力与创造性思考,不能将最终决策权与风险全部转移给 AI。要坚守人类的主体性,才能最大限度降低潜在风险。
第三,AI 要具备一定的韧性,不能仅依赖现有数据,需具备自学习能力。当社会环境发生变化、出现新情况时,AI 能够主动适应,持续维持与人类社会的和谐关系。
跨学科协作:打破壁垒的机制与实践
主持人:实现这一愿景需要计算机科学、心理学、社会学、法学、政策研究等多方力量的深度参与。你认为应建立何种机制,才能打破学科壁垒,让多元视角有效塑造 AI 的发展方向?
谢幸:要真正打破壁垒,还需要深度的融合。例如鼓励社会科学学者学习 AI 相关知识,AI 学者深入钻研社会科学理论,双方在同一项目中开展紧密合作。目前,我们已通过邀请社会科学学者访问、直接招聘心理学博士等方式,拉近了不同学科间的物理距离,优化了人才结构,为打破壁垒奠定了基础。
另一方面,应该从教育阶段入手,打破社会科学与理工科的学科划分。让学生在早期教育中接触多元学科知识,构建跨学科的知识背景,这对于未来开展复杂的社会化研究非常有帮助。
比如,我们团队就有心理学专业的同事。她专注于心理测量学,深耕辩证思维与创新力。她此前的心理学研究是基于数据分析的,因此团队沟通具备共同语言。尽管缺乏计算机领域的专业知识,但她主动学习了大量的 AI 相关知识,借助当前的 AI 技术,她已自主开发了一些研究中所需的工具、数据处理方式,甚至AI平台,为测试与数据采集工作提供了重要支持。
总之,跨学科合作的关键在于开放的心态。无论是跨领域加入的同事,还是计算机背景的研究员,都愿意去学习自己不熟悉的知识,愿意倾听跟自己以往认知不同的观点,这是实现有效合作的前提。
主持人:对普通公众来说,要怎么加入到这样的跨学科对话中?
谢幸:普通人完全有能力且应当参与其中。Societal AI 看似宏大,实则与每个人的日常生活息息相关。例如,家长在引导孩子使用 AI 辅助学习时,是否发现 AI 可能限制孩子的独立思考能力?职场人士在使用 AI Agent 时,是否察觉到潜在的偏见?这些日常体验与观察,正是研究工作宝贵的起点。
对于感兴趣的人,建议适当关注科普类研究动态,尝试阅读相关白皮书及研究论文。这有助于摆脱盲目的技术焦虑,以更专业、科学的态度利用 AI 提升自我,实现从被动受众向主动驱动者的转变。
对 AI 重构工作形态进行深层探索
主持人:除上述几个方向外,你最近还会思考哪些新问题?下一步,你最想解决 Societal AI 里的什么问题?
谢幸:Societal AI 涵盖的问题众多,前面提及的白皮书列出了十大核心问题,目前我们的研究尚未全面覆盖。除了已开展的研究方向以外,我们同样关注 AI 对工作的影响。我们正在与一位长期研究阶层流动与技术政策的社会学教授合作,深入探讨 AI 对就业、教育的潜在影响。
下一步,我们希望深入探索的是 AI 对企业组织结构的重构作用。当前,AI Agent 已成为热议话题,但当 AI 真正融入日常办公流程,带来的挑战远不止技术层面。我们正在聚焦一系列具体问题:员工大规模使用 AI 协同工作时,传统的汇报关系与协作链条将发生何种变化?若 AI 承担大部分基础分析工作,初级员工的成长路径是否会被阻断?哪些业务环节适合 AI 深度介入,甚至赋予其决策建议权?哪些环节必须保留人类的最终决策权,以保障社会责任的落实?
随着 AI 能力的增强,不仅是岗位消失的问题,更多是岗位“性质重塑”的问题。微软内部其实已经在这方面做了很多前瞻性的尝试,比如邀请来自不同国家的社会科学家,共同预测 AI 对未来长远工作形态的影响。我们希望不只是关注技术指标,更能从人的感受和社会的稳定性出发,寻找一种新的社会协作模式。
主持人:你想象中的“AI 伙伴”是什么样的?欢迎分享你的看法。我们下期再见!
相关阅读:
- 论文:General Scales Unlock AI Evaluation with Explanatory and Predictive Power
- 论文:The Road to Artificial SuperIntelligence: A Comprehensive Survey of Superalignment (opens in new tab)
- 论文:Unpacking the Ethical Value Alignment in Big Models (opens in new tab)
- 论文:From Instructions to Intrinsic Human Values — A Survey of Alignment Goals for (opens in new tab)
- 论文:The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits (opens in new tab)
- 白皮书:Societal AI: Research Challenges and Opportunities
- 文章:微软亚洲研究院发布社会责任人工智能白皮书,助力构建以人为本的AI系统
- 文章:Value Compass Benchmarks自进化评测框架,深度剖析大模型“三观”
- 文章:价值观罗盘:如何让大模型与人类价值观对齐?
- 署名文章:跨学科合作构建具有社会责任的人工智能
声明:
《AI Next》是微软亚洲研究院推出的一档利用 AI 技术制作的播客,旨在探索合成生成式技术在内容制作和传播中的新形式与可能性。节目中的语音均非真人录制,而是由研究技术原型合成。其中,嘉宾语音由 VibeVoice 技术基于既定文字内容以及嘉宾声音样本合成,宣传视频中的嘉宾人物头像由 VASA 技术基于音频内容以及卡通风格合成和渲染。
作为一项探索性播客节目,《AI Next》中涉及的相关技术仍处于研究阶段,生成内容的表现可能受多种输入因素的影响。节目制作及发布遵循人工智能、数据安全与隐私保护相关的法律法规。节目中所使用的语音、文字与图像均获得嘉宾授权,仅用于科研与科普展示。微软亚洲研究院将持续对相关技术进行优化,提升节目的收听体验。
随着人工智能技术的快速发展,确保相关技术能被人们信赖是一个亟需解决的问题。微软主动采取了一系列措施来预判和降低人工智能技术所带来的风险。微软致力于依照以人为本的伦理原则推动人工智能的发展,早在2018年就发布了“公平、包容、可靠与安全、透明、隐私与保障、负责”六个负责任的人工智能原则(Responsible AI Principles),随后又发布了负责任的人工智能标准(Responsible AI Standards)将各项原则实施落地,并设置了治理架构确保各团队把各项原则和标准落实到日常工作中。微软也持续与全球的研究人员和学术机构合作,不断推进负责任的人工智能的实践和技术。
所有使用或转载本节目的个人与机构,在引用与传播时需明确标注相关内容“由AI技术合成”或者不得移除已有的标识,并避免任何可能引发误导或侵犯他人权益的使用方式。若您发现本节目内容或相关技术被非法使用,请通过微软安全响应中心(Microsoft Security Response Center)网站 (opens in new tab)进行举报。