Schlangenöl ist die Bezeichnung für ein Produkt, das wenig oder keine echte Funktion hat, aber als Wundermittel zur Lösung vieler Probleme vermarktet wird.

Das sagt Wikipedia. Auf KI angewandt sind das KI-Lösungen, die eigentlich keine KI sind, bzw. etwas versprechen, dass nicht eingehalten werden kann. So viel zur Definition. Was das bedeutet und wie man es erkennt, hat Arvind Narayanan in seinem Talk „How to recognize AI snake oil“ (PDF) tiefer beleuchtet. Seine Hauptthese ist, dass eine KI keine sozialen Ergebnisse vorhersagen kann.

Besonders gut finde ich folgendes Appell:

We must resist the enormous commercial interests that aim to obfuscate this fact.

Dem ist nichts hinzuzufügen.

Photo by Austin Chan on Unsplash