10月16日,中国人民大学教授朝乐门教授受邀走进泰山科技学院,于我校2教名师报告厅,开启《人机共生:AI驱动型跨专业知识融合与创新实践》名师课堂选修课程,朝教授以其前瞻性的视角,为师生们描绘了一幅人机协同共创智能未来的崭新图景。
朝乐门|中国人民大学教授
《人机共生:AI驱动型跨专业知识融合与创新实践》

讲座伊始,朝乐门教授从生活中的AI普及现象引入本期主题:在人工智能技术迅猛发展的今天,如何实现人类智能与机器智能的深度融合。朝教授指出,在智能化浪潮下,单一学科的知识壁垒正被人机协同模式彻底打破,真正的核心竞争力源于“AI技术的跨界融合力”。朝教授深入浅出的讲解了大语言模型(LLM)的底层逻辑,他系统拆解了人工智能技术的演进逻辑,揭示了大语言模型(LLM)的底层机理与优化路径,并提出 AI 正通过驱动跨专业融合,重塑创新实践的全新范式。

朝教授首先厘清了人工智能的技术谱系:“AI 技术呈现清晰的递进关系——从通用 AI 到新一代 AI,再聚焦到大模型,最终落脚于当前最具影响力的大语言模型(LLM)。”接着,朝教授抛出了“大语言模型学到什么”的问题。在他看来,参数正是LLM 的 “知识载体”:“大模型的参数规模直接决定其知识储备与处理能力,这也是不同模型性能差异的核心原因”。

AI虽然可以突破人脑的极限,但它并非完美的 —— 朝教授指出大语言模型存在底层逻辑缺陷:“即便能处理复杂问题,模型在简单问题上反而可能出现不足的问题”,随后他举出了9.11和9.8谁更大的简单例子。出人意料的是,“无所不知”的AI居然给出了9.11大于9.8的结果。由此可知LLM的底层逻辑的缺陷就是简单的问题,AI更像一个 “超级书呆子”,看的书更多,但他不宜拟人,还需要进一步的完善。

认知鸿沟与关系演进,人机共生不断形成了三重境界“AI 与人的认知本质存在根本差异。”朝教授的观点直击核心。在解释完大语言模型的底层缺陷后,朝教授进一步引入后训和RAG的概念,即检索增强、SFT、强化学习、模型蒸馏、慢思考和推理大模型。“机器通过海量数据被动吸收知识,形成的是统计意义上的关联记忆;而人类以主动探索、因果推理构建知识体系,兼具情感与创造力。”基于这种差异,他提出人机关系的三阶段演进理论:辅助、合作、共生。这种关系演进与 AI 能力层次深度绑定。随着三种阶段的不断深入,自主性,协同性,竞争性,长期性也与之俱增。

AI的不断成长是生产力的进步,AI 时代的能力重塑与学习革命,与此同时AI也对人类提出更高的要求——我们应当回归到人的维度,人需要回到人的本位。“当 AI 能快速掌握标准化知识,人类引以为傲的传统优势正在悄然消失。”朝教授的警示引发全场思考。人必须聚焦机器无法替代的核心能力,如跨界思维、伦理判断、问题定义与叙事创造力。当然,万事万物都有自己的两面性,在教育领域,朝教授看到了 AI 赋能的全新可能:“技术能让学习摆脱痛苦体验。学生可借助 AI 按自身节奏开展个性化学习,学习不再痛苦,可以弥补自己短板,避免偏科。”他鼓励莘莘学子主动拥抱技术:“AI 是工具而非替代者,善用它拓展知识边界,才能在智能时代占据主动。”

讲座尾声,朝教授分享了正确使用广告数据学习中的编码的方法。同学们纷纷表示受益匪浅,认识到人机在共生的时代,我们不必担心被机器替代,而应思考如何与AI协同共进,让技术成为拓展人类智慧的翅膀,解码AI驱动下的跨专业知识融合与创新实践,成就更好的自我!
供稿:名师课堂办公室