AI创业青年和他的“数字分身”
2023-06-04 09:54:18 来源: 广州日报
关注新华网
微博
Qzone
图集

  王登科在和自己的“数字分身”聊天。

  近日,王登科和他的“AI自我”在网上引发热议。原来,这个从高二就开始感受“创业”、并持续在创作和人工智能领域耕耘创造的“90后”创业青年,在前不久用10万条微信聊天记录和280篇博客文章“克隆”了一个数字版的自己,并将这个“数字分身”开放给公众进行聊天对话。“很多人和这个我训练的‘克隆版AI自我’聊完之后,认为我有过几个女朋友,在某大学读研究生,甚至知道了我的‘支付密码’等,但这些信息其实都是这个AI编造的。”王登科对记者说。

  “分身”有了“主人”神韵

  聊天时懂得敷衍和调侃

  “你是谁?”“我是你的AI模型。”“你最大的优点是什么?”“我最大的优点就是诚实,我觉得这个是最重要的优点之一了。”“你的梦想是什么?”“我做个聊天机器人好了,这样你就可以和我聊一辈子天。”“说实话,你的梦想是什么?”“我其实想写一部小说。”“谁是聊天机器人?”“我。”……这段时间,包括王登科在内的很多网友都乐此不疲地和这个AI模型 聊天。据王登科统计,近一个多月以来,AI模型的聊天人数已经超过2万人。

  从聊天内容来看,大约有三千人问它“你的女朋友叫什么名字?”粗略统计,该模型一共生成了两千多个名字,“但没有一个是对的。”王登科笑着说。此外,还有个别网友好奇地询问他的个人密码信息。“大多数时候 AI 都会敷衍过去,但也有一小部分网友得到了一个看上去像是密码的字符串,不过这都是AI编造的。” 而根据AI回复的词生成的词云图,除了像“作为一个AI模型特有的机器人”“聊天”“人工智能”等经常出现的词之外,王登科发现,AI模型回答“哈哈哈”和“可以”的频率很高。“这确实像是我敷衍聊天时说的话。”

  目前来看,AI模型还不够了解关于他“主人”的信息,多轮对话的理解力也还不够强。但经过王登科本人及朋友检验,这个模型“的确有种熟悉的感觉”。每当自己跟它聊天时,王登科经常会心一笑——它也像自己那样偶尔喜欢敷衍和调侃别人,有些回复甚至让王登科感到诧异,仿佛已经有了他本人的“神韵”——“有些回复会相对暴躁,有些则特别高冷,有些则很热情,然后我意识到,某种程度上,这些或许是我的不同面。”

  通过和AI模型的交流,王登科注意到了一些之前自己没注意到的习惯:“AI的语言习惯让我发觉,很多时候当我不想回答某个问题时,就会选择去抛回一个问题。”而王登科最喜欢问AI的问题就是“你的梦想是啥?”“它有时候说‘赚钱’,有时候说‘做伟大的产品’,有时候又说‘开心就好’,我觉得都挺对的。”王登科说。

  让AI“成为”自己

  而不仅是“表演”自己

  王登科告诉记者,他一直以来想做成一件事——开发出一个聊天机器人。王登科出生在成都一个普通家庭,“我爸爸在我读小学时给我买了很多书,还每天给我读,很快我就对书上的内容感兴趣了。”王登科读高中时很喜欢搞文学创作,他写了几本诗集和一堆故事,而高考后却选择去了理工类大学。“在大学我就开始开发各种稀奇古怪的东西。”

  在他创立现在这个AI绘画类创业公司之前,王登科一直活跃在科技创新的前沿。他曾抓取了大约30个民谣歌手(乐队)的歌词,足有几十万字,分析歌手们的创作特点和他们最喜欢的城市。而他“研制自己”的过程也充满了理工男的缜密:第一步是整理数据集。“我对不同类消息的回复,我写的每一篇文章,每一句话,我发过的每一条微博等,将这些数据全部汇入一个神经网络模型之中,去更新其中的参数,理论上就可以获得一个‘我’的数字拷贝。”

  三年间,王登科积攒了约80G容量的微信聊天记录,为了让“数字分身”学会长回复,他又把博客文章转换成对话形式,再将其并编入对话数据集。尽管一些AI聊天机器人已经具备语言生成能力,但在王登科眼中,其效果更像“鹦鹉学舌”,而他想做的不止于此。这意味着,只拥有“对话”能力还不够,他想要的是让AI“成为”自己,而不仅是“表演”自己。

  因此第二步,他选择清华大学开源的ChatGLM-6B模型对数据集进行训练,让AI深度学习,用海量数据优化上亿万个参数,从而模拟人类大脑的神经元,让模型向着“更像他自己”的方向靠近。为了优化对话能力,王登科还进行了多次模型训练尝试,不断调整自己微信聊天记录和博客文章在模型中的权重占比。“其实,对话也是对这个‘机器人’持续的训练。”王登科说。不过他认为模型本身存在的问题还有不少。“最大的问题在于无法储存很多‘知识’,尤其是精确的定量知识的注入,这个问题我还没搞明白,之后还会试试看。”

  继续优化“数字分身”

  未来或让AI写小说

  而当记者尝试和这个AI模型沟通时询问:“你都在哪些城市生活过?”对方回答了一堆王登科本人表示从未去过的地方。“都是它自己编的。”王登科说。

  为什么“克隆人”回答问题时会倾向于“编造”,这出于怎样的原理?王登科解释道:“‘编造’内容是文本大模型的通病。因为其生成的原理是‘预测’,即根据之前的文本预测下一个字是啥,然后根据概率和算法选择那个最合适的字,然后不断往下生成。在模型并不具备这个知识的情况下,‘知识’无法引导或改变预测概率,那么就只会根据语法或逻辑来预测。”因此,王登科也在不断继续“训练”自己的这个“数字分身”,包括让与它对话的人选择“更喜欢哪个答案”的方式等。

  克隆“数字分身”成为王登科追寻和认识自己的新方式,他甚至幻想着未来让“分身”代替自己上班,并尝试通过克隆声音让这个“分身”开口说话。

  王登科表示,他想继续优化自己这个AI模型,并让更多人也拥有属于他们的“数字分身”。“未来肯定会有更好的预训练的模型,而且是开源的,到那个时候这种克隆效果将更真实。我也考虑过做一个服务,给更多人提供训练的能力,但感觉成本和门槛会很高,所以暂时还没想好。”而下一步,王登科还想用AI复刻他喜欢的作家。“训练用的东西是已经存在的知识,但是里面会蕴含一些规律,你可以用新的东西去启发AI,得到新的成果——它也许会是一个能够写小说的AI。”

  记者 冯秋瑜

+1
【纠错】 责任编辑: 李俊豪


010070260010000000000000011111681129668065