终于,清华大学唐杰团队也出手了。
就在GPT4发布的同一天,唐教授在微博宣布:
基于千亿参数大模型的对话机器人ChatGLM,现在开启邀请制内测。
据介绍,ChatGLM专门针对中文进行了优化,可以说是国人友好~
看起来,写博客提纲、创作剧本、解数学题、写代码,甚至是扮演高冷御姐,它都拿捏的死死的:
△写介绍ChatGLM的博客提纲
△Cosplay聊天扮演高冷御姐
量子位有幸拿到了内测名额,将在后文进行一波实测。
与此同时,还有另一个消息宣布:
唐杰团队为了与社区一起更好地推动大模型技术的发展,同时开源了包含62亿参数的双语ChatGLM-6B模型。
它最大的特点是在普通电脑上就能进行部署,有一块2080Ti就行。
一起来看看。
能写文言文致辞,知道何恺明最新动态,但……
先看ChatGLM,它是唐杰团队大模型家族时隔半年诞生的一位新成员。
alpha内测版名称叫QAGLM(全称qa-glm-v0.7)。
浅试一下效果。
首先,我们让它说了一下它和ChatGPT的区别。
它点出了自己的研发机构,和擅长中文的特点。
那么,就让它用文言文写个致谢词叭。
咋说,虽然多了一个“余”、出现了一个莫名其妙的繁体字,但读着还可以,用的排比句增强了气势。
接着,我们把前几日硅谷暴雷的文章开头丢给它,让它起个标题。