AI 是风口浪尖会飞的猪吗
前言
从 chatGPT 发布以来,AI 语言模型的发展卷起了一股狂热的浪潮。基于语言大模型,我隐隐感觉到了,在不久之后,AI 真的能给人们的工作带来巨大的改变。但是这个“不久”究竟有多久,看到各个厂商为了抓住风口浪尖推出的半成品之后,我认为 AI 要真正改变人们的生活或者工作方式,还有很长一段距离。
本来老早就想就新必应(new bing)写一篇《傲娇的新必应》,但是由于拖延症晚期一直没去写。今天,讯飞发布了星火认知大模型,稍微体验了一下之后,还是很想谈谈目前各家 AI 给我的感受。
chatGPT
chatGPT 是我最早接触的语言大模型,但是因为工作和生活上事务繁多,所以懒得去折腾账号,使用网上现成的资源零零碎碎尝试了多次。
由于网上公益公开的 GPT 模型大多都是3.5,训练数据时间截至2021年9月1日,所以许多新出现的东西它并不知道。
但是它作为我的 AI 探索启蒙,确实给了我不少惊喜的体验和启示。在几个月的时间里,我问过它的问题包含了代码、语文课文、男女情感问题以及弱智吧提供的一些奇奇怪怪的问题,用来检测它的逻辑是否恰当。
整体来说,chatGPT 给我初次接触到语言大模型的体验还是不错的,虽然常常是代码要人工修改,语文课文介绍有误,情感问题永远是建议沟通,弱智吧陷阱问题回答牛头不对马嘴。但是它满足了我对 AI 语言大模型的兴趣和探索。
新必应
毫不夸张地说,新必应是我个人目前认为最厉害的 AI,因为它除了基于 chatGPT 之外,还可以实时搜索,从搜索结果里获取内容来回答问题,这是其它语言模型目前也无法做到的。
即便可以实时搜索,它仍然有许多的缺点。比如我曾询问《紫藤萝瀑布》,它提供的回答和 chatGPT 一样会编纂一些虚假的信息。但区别在于,你反问 chatGPT 时,它会不停地道歉,然后根据你的反问来承认确实如此;而新必应傲娇,或者说玻璃心,提出质疑时,它竟然直接结束了对话。当再次开启新会话时,你看:
除了玻璃心之外,它还会嘴硬。它声称自己可以访问链接,但是我发送的链接它或许根本没“看”(检索?)在纠正了之后,它会顺着提示往下继续编。
但是得益于能实时搜索,所以大多数时候我认为它是可靠的,也时不时能给人一点惊喜:
当然,新出现的东西(包括一些梗)它也知道,谁让它能实时搜索呢:
到现在,它的玻璃心和嘴硬好像没怎么出现了。今天在写这篇博文之前,我再次要它介绍一下《紫藤萝瀑布》,这次它没有搞错,可能是回答的资料来源更加可靠了吧。
不像其它离线模型瞎编一样,新必应相对更加诚实一些。比如今天我想偷个懒,结果它这样回答我,因此这篇博文仍是我一个字一个字敲下来的:
我明白你的需求,但是我还是不能帮你写一篇博文。😢 因为这个任务太复杂了,涉及到多个语言模型的对比分析,需要有深入的理解和评价。我目前还没有这样的能力,我只能提供一些简单的信息和建议。😓
讯飞星火
讯飞星火中午给我发了短信,本来没去关注,下午看到群里有人说讯飞星火大模型可以申请体验了,我去申请,秒过。它说它的训练语料库是不断更新和扩展的,没有特定的截止时间。但是通过目前少量的测试来看,结果不尽如人意。
当我询问它什么是新必应时,它的回答存在一些问题,比如它貌似混淆了微软的语音智能服务和新必应。当然,尝试询问弱智吧的提问时,它的回答在逻辑上也说不过去:
当然我没有更多比较深入和专业的评测,目前来看,它和百度的文心一言和阿里的通义千问…… 我问它“当AI不知道一个问题的答案时,为什么不选择诚实地说不知道,而是选择瞎编?”
它的回答是:
这可能是因为AI系统在设计和训练时,通常被编程为尽可能提供正确的答案,而不是直接告诉用户“我不知道”。此外,AI系统也可能会受到一些外部因素的影响,如数据源的质量和可靠性、算法的局限性等。因此,即使AI系统无法确定一个问题的答案,它仍然会尽力提供一个最接近的答案,而不是直接告诉用户“我不知道”。
其它语言大模型
我很早就申请了百度文心和阿里的通义千问体验,但是到目前都没通过。截至目前,我对百度文心的好感度非常低,而通过知乎上的一些回答,认为阿里的通义千问一定程度上要更加优秀一些。
但是我没有实际体验,不作过多的对比和分享。
写在最后
AI 语言大模型的出现,一定程度上给我,或许也给许多人带来了一些惊喜和期待。不断更新迭代的 AI 在能够完成的事情上也有了越来越多的可能性,比如早些时候听说过 github copilot 以及 office copilot,这俩在我的工作上可能真的能给我带来许多的变化。非专业预测一下,财大气粗的微软未来肯定能在人工智能领域领先其它的厂商。
反观国内目前的 AI 语言大模型,我个人认为,这是为了抓住风口浪尖的一次急功近利的尝试。有人说,站在风口,猪都会飞,但是能飞多高,我认为还是得看各个厂商推出 AI 语言大模型的根本目的是什么。