2025/12/08

衣若芬故宮博物院現場導覽蘇東坡《赤壁賦》I Lo-fen comments Su Dongpo's "Ode to the Red Cliff"...


2025年11月21日,衣若芬故宮導覽《夢幻組合:西園雅集與李公麟》


参看
衣若芬《赤壁漫游與西園雅集》《暢敘幽情:文圖學詩畫四重奏》(西泠印社)
《千年宋韻.世紀故宮:衣若芬詩畫文圖學論文集》

訂購書Order book
https://forms.gle/ZtWTauH66K32Nn926
Kindle
https://www.amazon.com/dp/B0FRYSYPVN?...

2025/12/06

AIGC,万年护持 AIGC, Supported for Eternity

 



1010日“千年宋韵.世纪故宫”的线上新书发布分享会上,我用“ 百年守护.千年神遇.甲子万年”串起两岸故宫博物院百年大庆特展的主题。“百年守护”谈民国政变促使紫禁城转为人人得以进入的博物院;避乱战火中文物迁移;新世纪新生的故宫博物院新部门新气象。“千年神遇”介绍书中11篇学术论文、8篇散文、140幅高清图像的宋韵再生与诗画文图学。“甲子万年”则缅怀培育滋养我的师长,提出用AIGC(人工智能生成)技术延续文物生命和开创时代新意义。

一位听众问我:“如何运用AIGC工具,达到 ‘甲子万年’,让后世都能欣赏历史文物?”这个问题触动了我。它不仅关乎人工智能的技术层面,更是关于“人类文明如何与时间共存”的哲学思考。

“沉浸式体验” 的展览如今已经屡见不鲜。观众不再旁观展品,也被设计成进入展品,置身其间,共同参与展品独特意趣的完成过程。在人工智能技术还不发达时,ARAugmented Reality 增强现实)、VRVirtual Reality 虚拟现实)和MRMixed Reality 混合现实)可以用三维建模(3D modeling)、实时渲染(real-time rendering)、空间定位(spatial mapping)、感应追踪(motion / gesture tracking)等计算机图形学(Computer GraphicsCG)、传感器技术 和显示技术完成。有了AIGC,“感官与空间技术”的ARVRMR,结合“智能与内容技术”,观众的体验会更为流畅,互动性更强。

许多博物馆都提供AR眼镜或是扫描二维码呈现展品3D复原形态,观众一边看更详尽的展品细节,听音频解说,获取丰富的资讯内涵。我想,运用AI识别物体和实时追踪,用手机和感应手环,观众除了可以听语音讲解,还可以提问,和展品互动。

例如,当我们在展厅停驻于《文会图》前,ChatGPTAR系统便能即时生成一段讲解:“这是描绘北宋文人雅集的画作,你看垂柳依依,清风拂案……”我们可以继续发问——“这是谁画的?”、“画家想表达什么?”——甚至建模画中人物的“数字化身”,与我们回应对话,使我们仿佛参与了那场千年前的盛宴。

展览使用VR技术的例子,比如甫于2024年开放的杭州中国历代绘画大系典藏馆的“佛光朗照体验区,观众戴上VR显设备,可一秒魂穿”入1937年,和寻访山西五台山佛光寺的梁思成、林徽因同款视角,凝视古寺的千年时光。在虚拟空间中跃上房梁,近距离观察这座被誉为“中国古代建筑第一瑰宝”的唐代古建筑,感受文化的厚重与精湛工艺的震撼。

先进的MR技术让我们欣赏古画,学习历史知识,还可以动手玩游戏。像《丹青纪岁时—中国古画里的传统节日》,以春节、元宵、清明、端午、七夕、中秋、重阳七个传统节目为主轴,结合绘画图像制作。我体验的是七夕主题,戴上头显设备能看到《蚕织图》和《乞巧图》等画面,听见牛郎织女传说和古代七夕乞巧民俗介绍。接着动手从养蚕开始,依照指示,顺着虚拟场景徒手在空中采桑、取蚕、缫丝、纺织。活动结束之后还能看到同时参与者的计分,颇有竞争感。

如果继续开发AIGCARVRMR领域的多元应用,我们以后的观览沉浸式体验将会更多层次。从实体的五官五感经验;到AI辅助的智能层;到人机共构的AIGC创作层;再到交互新生,身心充盈的文化体验层。我们可以为了一睹文物原件而痴痴排队,无怨无悔;也可以冯虚御风,逍遥徜徉于元宇宙,万年护持。

 

2025126日,新加坡《联合早报》“上善若水”专栏

2025/11/23

进入《文会图》


 喝完那一小口微凉的茶沫,我心满意足地赶往下一个展厅。

终于,在研究和发表宋徽宗《文会图》二十年之后,以“沉浸式体验”(Immersive Experience),在杭州中国历代绘画大系典藏馆,亲身进入了《文会图》的空间。

以往隔着玻璃展柜观看展示品的方式,近年来增添了新的趣味,我们不只是“看”展品,而是身临其境地进入展览所营造的情境与氛围中,通过多种感官调动(视觉、听觉、触觉、嗅觉,互动行为),产生情感共鸣和深度参与,称为“沉浸式体验”。

最早的沉浸式体验来自视觉。这类展览往往利用大规模投影、环绕式屏幕和动态光影,让观众被图像包围。台北故宫博物院藏的北宋郭熙《早春图》,描绘万物生机蓬勃时节的大自然;通过科技设计和体感侦测,观众可以走进山雾缭绕、溪水潺潺的画境,伸开双臂,仿佛鸟儿展翅翱翔,飞到峰顶,旋转视角,发现不一样的风景。那一刻,《早春图》从“被观看”变为“被参与”,观众也超越画框,从“旁观者”变为“共创者”。

除了虚拟的绘画影像,更直观的方式,便是复制/还原画面为真实的场景,比如眼前的《文会图》。《文会图》描绘幽静的园林中垂柳依依,繁树掩映,几位士人围坐在铺满花果美馔的长案旁,愉悦谈笑,气氛雅逸从容。侍女与仆役穿梭其间,还有一位执拍板的男子似乎要开始余兴节目。此时酒宴将尽,画面前方正准备着点茶。

展场布置了三折屏风,中央悬挂《文会图》。屏风前偌大的长案,再现画中物品。观众如果坐在环绕长案的藤椅,便宛如扮演了画中人物。于是我随性坐下,拿起酒盏,朝旁边正在插花的汉服仕女致意。

声音,是沉浸式体验的第二层通道。音乐、环境音、甚至沉默,都能建构出空间的情绪。《文会图》的 一隅石桌上有香炉、书册和古琴,暗示即将的乐音;实景的《文会图》安排了仕女弹奏古筝,营造古典的历史氛围,吸引观众接近驻足。

如果说视觉与听觉构成了感官沉浸的前奏,那么触觉与嗅觉则让沉浸进入身体的深处。

在兰州敦煌艺术博物馆复制敦煌佛教洞窟外面,放了一块砂砾岩,看似不经意的装饰,其实是让观众可以触摸,感觉石头的质感。砂砾岩容易风化,试想如此肌理上图绘的壁画如何不易保存?

香港艺术馆《好物有型》展,观众点触屏幕回答气质测验问题,可以得知适合自己格调的专属香味,并且嗅闻香味的样品。4种个性类型呈现的4种艺术家风格,不但令观众理解,也随之趋于认同。

至于五官五感中的味觉在文物艺术展览时较为操作复杂。展览不是饮食售卖,只是摆放食物的话,观众的体会稍嫌单调。与其推出成品,不如表现过程,实景《文会图》设置了现场示范点茶,将以往像宋徽宗《大观茶论》记叙的内容,配合《文会图》的画面,具体展演。

这位点茶女士将白茶粉放进茶碗,注入70度以上的热水,然后拿茶筅反复环回击拂,《大观茶论》详细说明了7次注汤的步骤细节,逐渐搅打出乳白色的泡沫—--这就是苏东坡词里的“雪沫乳花浮午盏“啊!

现代人喜欢的咖啡拉花,一千年前的宋代人早就玩过了,而且不必依靠牛奶,仅仅将热水点在搅打好的茶泡沫,形成色差水纹;或是拿茶勺轻划,花鸟虫鱼、诗词文字,栩栩浮现,所谓的“注汤幻茶”、“分茶”、“茶百戏”、“水丹青”,真是巧思灵动。

悠扬的古筝乐曲声萦回着雅集的余韵,我抚触那仿汝窑的茶盏,想起当年在台北故宫博物院报告《文会图》,“师祖”方闻教授的赞赏和嘉勉:“没想到中文系出身的学者能够研究得这么透彻。”我后来告诉方教授,我是他得意弟子石守谦老师的学生,算是他的“再传弟子”了。他笑得合不拢嘴,频频点头。我研究《文会图》的文章名为“天祿千秋”—-感恩天赐的福禄,给予我们艺术审美沉浸至生命底层的喜悦。

 

20251122,新加坡《聯合早報》“上善若水”专栏

2025/11/16

AI是厨师,AIGC是菜肴 AI is the chef, AIGC is the dish

 


去年我写了AIGC(人工智能生成文本)文图学的书,开设AIGC文图学课程。一次,朋友介绍我说:“衣若芬是全球中文学界最懂AI的人。”我听了,连忙说:“哪里,哪里。不敢,不敢。”并不是谦虚,而是我懂得的不是研发AI,是如何利用AI工具生成文本,并且从文图学的观点分析和评估AI生成文本的优劣,进而赋予意义和价值。

很多人都混淆了AIAIGC。新闻报道说,台湾的人文学科学生选读AI课程的意愿不高。一些同学听了第一堂课,便纷纷打退堂鼓。一位在北京交换留学的同学和我分享大学为文科开设的AI课程,包括制作语料库、搭建大语言模型。同学说:“看了课表,不明白学了这些对我们有什么用?已经有了ChatGPT这种强大的大语言模型,我们何必还要自己搭建?”

是的,文科生和一般大众需要的AI素养和技术知识的确和专攻AI的训练不一样。如同我之前在书里谈过:我们不一定要看得懂乐谱、会弹奏乐器,只要懂得欣赏,并且感受音乐给予我们的心灵滋润和情绪抚慰。就像操作手机,我们是使用者,重要的是知道手机的功能。

再举一个日常生活的比喻。AI是厨师;AIGC是菜肴;数据是食材没有好的食材,再好的厨师也做不出美味的菜。算法模型是厨具——有了先进的厨具,厨师能更快、更高效地做菜。

想象我们走进餐厅,点了一盘东坡肉。香喷喷的东坡肉端上来,我们首先品尝的是菜,然后可能想到:“这家餐厅的厨师手艺真不错。”我们未必会烹饪,但是基本能够品尝得出菜肴酸甜苦辣的滋味,以及是否合于我们个人的胃口。如果还能够知道一些这道菜的历史背景,比如东坡肉和苏东坡的关系(虽然我考证出“苏东坡没有吃过东坡肉”),至少,围绕东坡肉的文化氛围会让我们再增添一些饮食的乐趣。

AI是整体包罗工具和技能的统合;AIGC是使用工具以后,发挥技能生成的产品,是AI的效益之一。前者是基底,后者是输出。媒体往往简单称呼,把AIGC也叫做AI,于是一旦AIGC的内容出错,便全盘否定AI的可信度,这实在“冤枉”了AI。客人吃到味道不佳的菜肴就骂厨师,但是厨师拿手的也许是别的料理。在意大利餐厅想点葱油饼,认为和披萨差不多,其实 同中有异呢。

为什么区别AIAIGC很重要?在学校里,可以明确针对不同专业需求的学生,设计适配的课程,培养相应的能力,将来学以致用。作为消费者,知道哪些应该提高警觉,例如AI的演算法向我们推送信息,根据的是我们在互联网平台留下的数据和习惯纪录,掌握我们的兴趣和交流网络,于是精准投放。如果这是网路商店,基于演算法生成的商品(AIGC)便可能激起我们的购买欲。

在医疗方面,AI已经可以辨识一些X光和CT扫描的图像,协助医生判断病情。目前我们还不能放心直接把治疗决策交给AI,某些所谓“AI医生”给的“诊断书”(AIGC)良窳不齐,只能视为建议参考,谨慎存疑为妙。

这么说来,好像AIGC很不靠谱,我们还学它干嘛?

我们吃了一次不合意的菜肴,顶多再不去那家餐厅。调教AI厨师学人类厨师,说不定会制造出随机创新的菜肴,给予我们意外的惊喜。我让ChatGPT帮我生成 “《南洋风华》迷你套餐”,它设计的是:主菜“班兰榴莲烤鸭卷”,饮品“香茅辣椒椰子冰沙”,你想试试吗?

 

2025118,新加坡《联合早报》“上善若水”专栏

2025/10/31

我和ChatGPT吵架!AGI來了嗎?I had a fight with ChatGPT! Is AGI here yet?