首页>常见问题>开发者火冒三丈炮轰GenAI:垃圾语料太多模型正在变得越来越笨

发布日期:2024-10-08来源:AG凯发国际,ag凯发国际k8官网,凯发k8旗舰厅ag浏览量:

  如果你只是想用生成式AI闲聊(这似乎是ChatGPT最流行的用途之一),那么准确性可能对你并不重要★★★◆◆◆。

  然而,最近它的表现也越来越不稳定,我再也无法指望它能够准确地给出它是在哪里找到、并重新整合出的这些信息。

  如果只是答案平庸但相对准确★★■,我还可以想办法应对。但它生成的内容让我无能为力■◆■。

  在我使用生成式AI对这些主题进行研究时,AI能给出的回答乍一眼看上去可能不错,但你越深入的去讨论一些细节时,它能给出的信息就越贫乏★★■。

  生成式AI(GenAI)★◆■◆■■,尤其是以OpenAI的ChatGPT为代表★◆■◆,人们发现◆◆,这些大模型在一年多后的性能表现远不及刚发布时那样令人惊艳了。

  《商业周刊》报道★■◆,许多GPT-4的用户发现它变得越来越「懒」和「愚蠢」。

  以我日常的工作内容为例,在Linux和开源软件等主题上■■★,我比一般的大语言模型(LLM)了解得更深入。

  以一位律师为例,他的法律文件中包含了由AI虚构的案例信息,法官们发现这一事实后并不会被逗笑◆★◆。

  我怀疑很多人不会注意到AI CEO与人类CEO的区别——除了它会为公司节省一大笔钱。

  Steven Vaughan-Nichols是一位自由撰稿人和技术分析师,在多家科技媒体中担任高级特约编辑■◆◆★■。他拥有自己的个人博客,在X上拥有数万名订阅者。

  如果你对内容的需求仅在高中水平,模型生成的答案还算过得去。但当你需要深入挖掘或研究某个主题时■★◆■,那就另当别论了。

  在OpenAI开发者论坛上,有用户发帖表示★★■★:自从去年最新版本的GPT发布后,模型的准确性就显著下降了。

  我也希望生成式AI真的有用,但事实并非如此。我一直在不断尝试使用各种AI——如ChatGPT、Meta AI以及Gemini等■■★★。

  正如最近在Reddit上的用户所说的那样★★■◆,「现在ChatGPT 3和4的效果远不如我一年前订阅专业版时那么有效和有帮助。」

  他在文章中写道,「这些由AI生成的结果常常令人恼火■★■◆。它们有许多荒谬的错误★◆★■■◆,更糟糕的是,这些错误的出现总是反反复复◆★■■◆,没完没了。」

  这些由AI生成的结果常常令人恼火。它们有许多荒谬的错误,更糟糕的是,这些错误的出现总是反反复复★◆■,没完没了★◆。

  「如果只是答案平庸但相对准确,我还可以想办法应对。但它生成的内容让我无能为力。」

  ChatGPT之类的工具远没有你想象的那么好,而且随着时间的推移,它们的表现越来越糟。

  同样的,一位ChatGPT的用户在今年6月写道,「经历了这么多的AI炒作之后,这些模型如今的表现让我非常失望。」

  所有主要的公众可访问的AI模型,像ChatGPT和Claude这样的品牌旗舰产品——其性能都不如以前的版本。

  正如谷歌在今年早些时候发布的AI概述所显示的那样◆■■★,采用这些数据集对AI进行训练的结果可能会非常糟糕★★★◆★。

  但由于生成式AI需要通过大量数据进行训练,而随着人类世界的高质量内容日益枯竭◆■■、互联网越来越多地充斥着AI生成的劣质内容★◆◆,模型未来的性能表现将会成为一个越来越严重的问题■◆★■■。

  《自然(Nature)》的最近的一篇论文发现★★,「不加区分地从其他模型生成的数据中学习会导致‘模型崩溃’★★■◆。这是一种退化过程◆■■,随着时间的推移■■★★,即使分布没有随时间变化,模型也会忘记真正的底层数据分布■■。」

  当然,我们也有可能会重新发现由人类完成的那些极其珍贵且不可替代的工作的价值。

  如建议用户「往披萨上加胶水」或「每天至少吃一块小石头」◆★■◆■,以及「前美国总统安德鲁·约翰逊在1947年至2012年间获得了大学学位,尽管他于1875年去世。」

  其他的一些用途中■★★■■,如在线游戏中由AI驱动的非玩家角色,将提高游戏体验,而像ElliQ这样的AI朋友可以帮助很多孤独的人。

  在我看来★★■◆,即使是最好的生成式AI聊天机器人Perplexity也在走下坡路■■■■◆。

  以前我喜欢Perplexity的一个原因是它会为其观点提供来源。在我把它看作是一个超级增强的搜索引擎时,这个功能很有用■◆★★。

  但由于我看不到公司会停止使用生成式AI以更低的成本来生成文档◆■★■★■,因此未来充斥在互联网中的内容质量只会继续下降。

  许多模型的训练集中包含了来自诸如Twitter★◆、Reddit以及4Chan等「优质」网站的数据。

  来自Epoch AI的一项研究发现,我们最早将在2026年耗尽高质量数据。

  这类回答都是些无伤大雅的蠢例子■■◆★,但如果你需要一个正确答案,那就完全是另一回事了。

  基于专用大语言模型的特定用途的生成式AI聊天机器人,在作为排查程序故障或发现潜在癌症的工具时◆◆◆◆,已经非常有用。

  这些模型在你不太了解相关领域的情况时,看起来似乎是有用的★◆■★◆,它们生成的回答也很合理◆◆■■。