人民邮电报记者 杨赞
2022年末,美国AI实验室OpenAI推出AI聊天程序ChatGPT,无论是写论文还是写代码,它都能一气呵成、游刃有余,号称史上最强的人工智能。一经推出,ChatGPT迅速走红,备受关注,发布一周用户就突破100万人,月访问量达2100万人次。据ARK风险投资公司首席未来学家Brett Winton统计的数据,不到两个月的时间,ChatGPT的日活量已突破千万。而当年同样引起轰动的Instagram达到这一成就足足花了355天。
而自ChatGPT发布以来,它的能力也不断被人们解锁,比如写神经网络、回答面试问题、做智能音箱。但人们在试用中慢慢发现,数学能力是ChatGPT的一大短板,连简单的“鸡兔同笼”题都能算错。大概是考虑到这一点,ChatGPT近日宣布了一次重要更新:提升了真实性和数学能力。不得不感叹,太“卷”了!
学习和交互能力强大
ChatGPT是一种语言模型,它被训练来对对话进行建模。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。据了解,ChatGPT使用了一种叫做Trans-former的神经网络架构,这是一种用于处理序列数据的模型,能够在输入序列中捕捉长期依赖性。它还使用了大量的语料库来训练模型,这些语料库包含了真实世界中的对话,以便模型能够更好地理解人类语言。
而ChatGPT的良好使用体验和商业前景也引发了资本的广泛关注。1月12日,在美国一场活动上,曾担任微软董事长的比尔·盖茨表示,他不认为Web3有那么重要,也不认为元宇宙本身是革命性的,但是人工智能却颇具颠覆性。当被问及如何看待ChatGPT时,他说:“这让我能一窥未来。整个平台的方法和创新速度都令我印象深刻。”当地时间1月23日,微软公司在官方博客中宣布,微软将向OpenAI进行一项为期多年、价值数十亿美元的投资,以加速其在人工智能领域的技术突破。据悉,微软在2019年和2021年对OpenAI进行了投资,2019年微软对其投资10亿美元。
据了解,ChatGPT较上一代产品提升明显,对话模式具备更好的交互体验。首先,从技术层面来看,GPT模型以Transformer为基础,通过预训练得到通用文本,模型的关键内容包括基座模型能力、真实数据和学习算法等。GPT已经过多个版本的演进,预训练数据量也由5GB提升至45TB。ChatGPT基于GPT-3.5版本,在真实性、无害性、写代码等方面实现大幅提升。其次,对比Google等搜索引擎,ChatGPT的对话模式对于用户更有吸引力,但尚不具备替代搜索引擎的能力。ChatGPT的数据来自训练数据库,目前数据库仅更新至2021年,可用信息有限,同时真实性也无法得到保障。此外,从商业模式来看,ChatGPT目前采用免费的模式。根据OpenAI的CEO SamAltman披露,ChatGPT每次聊天成本约为几美分,其中一部分来自Azure云服务,未来公司在持续优化成本的同时,会考虑通过收费获利,预计的收费模式包括订阅制、按条收费等。
随着ChatGPT迅速走红,其竞争者也不断涌现,从Anthropic公司的Claude、DeepMind公司的Sparrow、谷歌公司的LaMDA到Character AI,这个赛道将变得越来越“卷”。
将增加虚假信息风险
ChatGPT显然是一个强大的新工具,具有在许多领域产生有益影响的潜力,但它也有弊端。近日,美国休斯敦大学法律中心助理教授尼古拉斯·古根伯格(Nikolas Guggenberger)等指出,类似ChatGPT这样的人工智能能够针对任何事产生无限的、近乎免费的“观点”。这些虚假观点将为网络上的影响活动提供动力,并削弱自由话语中的另一个信任支柱,即我们在网络上与之交流的是真实的人这一理念。
过去几年,传统媒体更新了其发现虚假信息的方式;社交媒体也在发现、标记和压制虚假信息方面取得了更多成功。然而,类似人类对话的虚假观点带来了新的挑战。简单的机器人可以使用新创建的账户一次又一次地复制和粘贴或多或少相同的社交媒体帖子,这些机器人发布的重复性内容和可疑的发布模式使它们相对容易被社交媒体识别和禁止,即使这样做也需要花费时间。
而ChatGPT或类似的人工智能,将使“伪草根营销”(astroturfing,一种带欺骗性质的营销手法,通过雇用写手在网络上大肆宣传某产品,试图营造普通消费者热爱某产品的虚假印象)几乎是免费的,而且很难被发现。与过去的机器人不同,ChatGPT不需要发送几乎相同的复制粘贴的边缘观点。它们可以模仿人类,针对各种主题产生无限的具有连贯性和细微差别的独特内容。这些机器人账户不仅会主动发帖,还会对其他用户的帖子做出响应,并展开长期的对话。
认知科学家加里·马库斯(Gary Marcus)认为,ChatGPT存在两个核心问题:神经网络“既不可靠也不真实”。谷歌的人工智能研究人员在最近的一篇论文中承认,仅仅扩大模型的规模难以成功。仅扩大规模不会带来“安全和事实基础方面的改进”。许多对ChatGPT的怀疑和批评都归结为将其与人类的比较,而事实上,大型语言模型并不能像人类那样思考。