Neues Forschungspapier sieht kaum echte Intelligenz in ChatGPT & Co.
In einem brisanten Forschungspapier rütteln Deepmind-Forscher von Google an den Grundfesten der KI-Technologie. Die renommierten Experten, darunter Steve Yadlowsky, Lyric Doshi und Nilesh Tripuraneni, behaupten, dass aktuelle Transformer-Modelle, wie sie auch bei OpenAIs GPT-4 zum Einsatz kommen, im Grunde genommen unintelligent sind. Die Analyse legt offen, dass KI-Modelle Schwächen zeigen, sobald sie Aufgaben außerhalb ihrer Trainingsdaten bewältigen müssen.
Die Studie konzentriert sich besonders auf OpenAIs GPT-2, obwohl GPT-4 aktuell im Einsatz ist. Die Autoren generalisieren jedoch ihre Erkenntnisse auf Transformer-Modelle insgesamt, einschließlich ChatGPT. Dieser Modelltyp, der als Schlüssel zur künstlichen allgemeinen Intelligenz (AGI) galt, scheint laut der Experten von Deepmind weit davon entfernt zu sein. Die Forscher betonen, dass KI bisher keine Eigenständigkeit entwickeln konnte und stark an den Inhalten des Trainingsdatensatzes haftet.
Die Einsicht der Google-Experten, dass KI gegenwärtig nur dann beeindruckend ist, wenn sie sich auf das Fachwissen der Menschen stützt, wirft einen Schatten auf den anhaltenden Hype um künstliche Intelligenz. Trotz dieser Warnung planen OpenAI und Microsoft gemeinsam den Aufbau einer AGI, und sogar der Mitgründer von Deepmind, Shane Legg, äußerte die kühne Prognose, dass AGI bis 2028 erreicht werden könnte – eine Behauptung, die er seit einem Jahrzehnt wiederholt. Es scheint, als müssten die KI-Enthusiasten mit einer nüchternen Realität konfrontiert werden: Die KI hat noch einen langen Weg vor sich, bevor sie menschenähnliches „Denken“ erreichen kann.