昨天下午两点,百度召开了旗下大语言模型“文心一言”的新闻发布会,这是继“文心一格”之后的另一款生成式AI产品。
(相关资料图)
百度创始人兼CEO李彦宏在发布会开场时先来了一段深情自白:“全球的大厂当中,百度是第一个发布的,微软是直接调用Open AI,而Google和Facebook等大厂都没有发布同类型、同级别的产品。”以及:“在文心一言内测过程中的体验来说并不完美,因为市场有需求才选择在今天发布。”
所谓的市场需求便是在当前ChatGPT“肆虐”全球的国际形势下,我们急需一款自己的人工智能语言模型来提振士气,所以这场发布会注定备受关注。
从发布会来看,文心一言可以进行文学创作、商业文案创作、数理逻辑推算、中文理解和多模态生成。
咱就从文学创作开始,文心一言根据提问提炼总结出了每部《三体》的故事脉络,并且从生命的意义、人类与宇宙的关系、道德和伦理、价值和信仰、科技与人文的关系这五个方面提出了续写建议。
文心一言在更加复杂的数理逻辑推算功能方面的表现也堪称完美,面对经典的“鸡兔同笼”问题,它能够像学神附体一样质疑题目的正确性。
它还能将解题思路工整地写下来并给出正确答案。
而压轴展示的功能就是万众瞩目的多模态生成。多模态生成,说人话就是文心一言可以用文字、图片、音频或者视频的方式输入信息并输出符合要求的文字、图片、音频或者视频,属于目前的黑科技。
文心一言用极快的反应时间就根据要求生成了一张“2023世界智能交通大会”的海报,这就是属于输入文字输出图片的多模态生成。
耐人寻味的是,发布会上关于文心一言的演示全是录播,没有一段实机演示,导致现场弥漫着一股诡异的气氛。在展示出种种革命性的功能时,台下乌泱泱的观众并没有爆发相应的欢呼和掌声,跟我看过的任何一场发布会都形成了鲜明对比。
而李彦宏本人也没有表现出自己公司潜心多年搞出划时代产品的那种自信神态,反而像一个学生在硬着头皮依靠拖延战略来答辩,简称依托答辩。
二级市场也给出了质疑,项目演示开始不久,百度股价便应声跳楼,几分钟内暴跌10%。
顺带一提,文心一言的同门“文心一格”,是一款百度旗下的AI画图产品,有好事网友用它生成了“一只爱国的猫”,居然全身美国国旗彩绘。战狼看了要虐猫,昊京看了也要吃不下白象方便面了。
Stable Diffusion是一款热门的画图AI,该网友的意思是,文心一格只是接入了Stable Diffusion的API。就像你喊我给你画个图,我反手就一个电话打给我表哥喊他画完V我,我再V给你。
同为好事之徒的我用另一款叫Midjourney的画图AI也生成了类似图片。
△Midjourney
有趣的是,我给的关键词同样是“一只爱国的猫”,但Midjourney识别出我使用的是中文后就给这只猫加上了像那么回事的中国元素。
咱说回文心一言,在问世之前,大家就把它对标ChatGPT,但在发布会之后,大家一致认为这不过就是个ChatPPT,所谓期望越大失望越大,也难怪网友会传出这样一幅恶搞图。
△看包浆梗图,品百味人生。
吐槽归吐槽,百度的勇气还是值得称赞的,有一种壮士赴死的气概。
作为文心一言对标产品的ChatGPT在百度发布会前一天发布了自家产品的升级版GPT-4。
△我问了一下ChatGPT对于这次发布会录播演示的看法
相较于已经技惊四座的GPT-3.5来说,GPT-4显得更为惊艳,ChatGPT经过这次迭代已经进化成一个大型多模态模型,在文字交互方面也超过了上一代非常多。
虽然GPT-4目前只支持输入文本和图片输出文本,但它输入图片输出文本的能力已经远远超出大家的预期,甚至能让人感到脊背发凉。
GPT-4之于上一代,在文本的输入限制和记忆上都有了大幅提升,使得它与用户之间的对话具有更好的准确度和逻辑,先来直观感受一下GPT-3.5和GPT-4的数据投喂量差距。
GPT-4在天量数据的支撑下已经能在号称美国高考的SAT中获得1410分的好成绩(总分1600),已经超过了90%的人类学生。
最亮眼的还是GPT-4在专业领域的表现,它在美国BAR律师执照统考中同样超过了90%的人类,在MKSAP 19医学知识测试和高级侍酒师理论考试中则是超过了75%的人类。这些成绩对于GPT-3.5来说是遥不可及的。
△GPT-4在多项考试中远超GPT-3.5
英伟达AI科学家Jim Fan对此感叹道:“GPT-4最强的其实就是推理能力。它在GRE、SAT、法学院考试上的得分几乎和人类考生没有区别。也就是说,GPT-4可以全靠自己考进斯坦福了。”
在多模态生成方面,GPT-4的表现更是令人头皮发麻,Open AI总裁在发布会演示中手绘了一张笑话网站的样图。
再把样图用手机拍下来发给GPT-4。
GPT-4识别图片之后就根据指令输出了这个笑话网站的代码,程序员的屁股岌岌可危。
你要是随便发一张冰箱里的图片然后问它可以用这些东西做几顿饭,它马上就能给出相应的食谱。
GPT-4还能根据图片内容以逻辑推断出其中的笑点,比如这张图:
你问它笑点在哪里,它会告诉你,这个充电线就是个又大又老的VGA接头,插在这个智能手机上反差很强烈。
再比如这个:
GPT-4会告诉你,图片上的文字明明说这是从太空拍摄的地球照片,但图上的实际内容是一堆排列得像地图的鸡块,所以这个图的笑点在于图文不符。
此外,目前已经有一些基于GPT-4的项目出现,比如你可以通过输入文本来构建3D模型,元宇宙离实现更近了一步。就连摩根士丹利都在用GPT-4来组织他们庞大的知识库。
这些项目中最有意义的是一个叫作“Be My Eyes”的公益项目,顾名思义,GPT-4可以充当盲人或视弱人群的眼睛,告诉他们衣服上的图案、识别各种产品等。
在不久的将来,GPT-4就可以靠着强大的视觉识别功能完全取代导盲犬,带领盲人在复杂的环境中穿行,帮助他们在生活中获得最大程度的独立。
ChatGPT的迭代速度远超想象,从GPT-4的技术报告中可以看到,GPT-4早已于2022年8月就训练完成。
△GPT-4技术报告
而摩根士丹利也透露,更强悍的GPT5正在用25000多块英伟达GPU训练中。
△摩根士丹利报告
到这里就很明了了,百度的文心一言确实很拉,值得思考的是,究竟为什么会拉?
总的来说,咱们AI那么拉是多方面原因造成的,为避免不可抗力,就只从市场的角度来讨论讨论。
首先,各种民族性的批判都不靠谱,什么急功近利之类的,特别没意思。
我们和他们AI有差距的原因就是市场不同,如果市场上发点黄图就能挣钱,谁还会去拍片?但是在美国拍片都很难挣钱,因为p站上竞争太激烈,拍片的都卷成麻花了。(本观点来自一位匿名知乎用户,他本人是研究数字经济和创新管理的硕导)
不成熟的市场是技术无法创新的首要原因,到处都是套利的机会,没有人会去搞技术创新,大厂都忙着卖菜,忙着送外卖,忙着用弹窗广告从每个用户手里扣5角钱。
而成熟的市场充满高强度竞争,没有套利的机会,只能死扛技术创新,搞长线投资来保证自己未来的利润。
美国基因泰克公司那些投资人前后投了几十年,就是因为能看到曙光在前面索性拼命下注。还有美国那个造机器人的波士顿动力公司,也是投了二十多年了,到现在距离盈利还遥遥无期,像个无底洞一样,但是他们做出来的机器人却一年比一年NB。
我们现在还处于一个《羊了个羊》能爆火并创造盈利神话的市场,但是也没必要着急,毕竟美国市场的底蕴是靠上百年沉淀出来的。
我们只要找对方向,
Copyright @ 2015-2022 华东晚报网版权所有 备案号: 京ICP备2022016840号-41 联系邮箱:2 913 236 @qq.com