Zum Inhalt springen →

Schlagwort: Ki

Eliza – Oder: Alexa, wer ist deine Mutter?

Es muss irgendwann in den Achtzigerjahren gewesen sein. Ich sitze in meinem Klassenzimmer und schreibe eine Wortliste ab. Ein paar Tage zuvor habe ich aus einem Magazin ein Listing für meinen Commodore 64 abgetippt: Eliza.

Eliza war ein Chatbot. Anhand einer einfachen Analyse der getippten Worten und einem Abgleich mit einem relativ einfachen Thesaurus (jedenfalls in diesem Listing) konnte der Bot auf viele Aussagen mit einer entsprechenden Antwort kontern. Meist waren das Rückfragen.

Ich: Ich habe ein Problem mit meinen Kindern
Eliza: Erzähle mir mehr über deine Familie.

Im ersten Moment hatte man das Gefühl, die Maschine ist zum Leben erwacht! Mit der kompletten Wortliste wurde jedoch schnell klar, dass es eben nicht wirklich eine intelligente Maschine ist. So gehörte der Krieg als Mutter aller Probleme plötzlich zur Familie … Dennoch war diese erste Erfahrung für mich beeindruckend.

Eliza wurde viele Jahre zuvor, genauer im Jahr 1966, von Joseph Weizenbaum entwickelt und sollte als virtuelle Psychologin dienen. Sie hört immer zu, hinterfragt Dinge und gibt den Patienten das Gefühl, dass endlich jemand auf sie eingeht.

Betrachtet man sich die Chatbots im Hier und Heute, findet man sehr schnell viele Parallelen. Natürlich haben wir heute viel mehr an wissen, auf das ein Chatbot zugreifen kann. Dennoch ist das Grundverhalten das Gleiche. Mit Blick auf Amazon Echo und wie die Skills für die Sprachassistenten entwickelt werden, merkt man schnell, dass wir immer noch die gleichen Prinzipien verwenden. Dennoch sprechen wir von der KI und intelligenten Assistenten. Am Ende ist es doch meist nur eine Idee aus den späten sechziger Jahren.

Photo by Rock’n Roll Monkey on Unsplash

Schreibe einen Kommentar

WTF, AI!

Für einen Vortrag über den Einsatz von KI in verschiedenen Bereichen, bin ich bei der Recherche auf viele Artikel, Vorträge und Reportagen gestoßen, die in mir ein WTF, AI! hervorgerufen haben. Positive, wie Negative. Daher habe ich mich dazu entschlossen, diese Fundstücke hier im Blog zum Besten geben. Anfangen möchte ich mit einem Tastatur Layout, das ein durch eine KI optimiert wurde.

Das Layout hört auf den Namen Halmak und hat die Tasten, mithilfe einer „KI“ optimal angeordnet, um effizient damit zu arbeiten. Ein Arbeitskollege von mir benutzt Dvorak als Layout, was immer wieder witzig ist, wenn jemand an seinem Rechner tippen möchte. Aber auch umgekehrt.

Klar, das klassische QWERTZ als Layout hat seinen Ursprung in den mechanischen Schreibmaschinen. Heute gibt es keine Mechanik, die verhaken kann. Damit stehen Tür und Angel offen für optimierte Layouts für minimal Bewegung der Finger. Dank einer KI wurde nun eine Verbesserung um 134 % ggü. dem normalen QWERTZ-Layout erreicht. Nikolay Nemshilov hat das wunderbar in seinem Blog dokumentiert. WTF AI!

Photo by camilo jimenez on Unsplash

Schreibe einen Kommentar

Daten, Daten, Daten – Gesichter für die KI

Wer ein neuronales Netz trainieren möchte, benötigt sehr viele Daten. Das ist allgemein bekannt. Doch woher kommen die Daten? Sind es Netze, die das Verhalten einer Produktionsmaschine lernen sollen, ist es noch relativ einfach. Die Sensoren liefern Daten und der Mensch kann sie klassifizieren. Damit kann man lernen. Es existieren Unmengen von offenen Datenbanken mit Trainingsdaten für nahezu alle Arten von neuronalen Netzen. Kaggle hat einiges an Sets, damit man sein Algorithmus anlernen und validieren kann. Viele Unternehmen bieten unter dem Begriff Open Data einige Daten, wie beispielsweise die Bahn es tut.

Die Frage ist, woher diese Daten alle Stammen. Bei den Daten der Unternehmen ist es noch relativ einfach zu sagen. Trainingssets für Bilderkennung sind da schon schwerer nachvollziehbar.

Eine bekannte Datenbank für Gesichtserkennung ist MegaFace. Darin enthalten sind Millionen von Trainingsdaten und Testsets. Ein Traum – vor allem für die, die Algorithmen verbessern, neuronale Netze trainieren oder validieren möchten.

Nur, woher stammen diese Bilder?

Schreibe einen Kommentar

Die KI und die optische Illusion

Bilderkennung und die Interpretation des gesehenen ist derzeit eine der meistgenutzten Errungenschaften der modernen KI, oder besser gesagt: Deep Learning.

Die neuronalen Netzwerke werden in der Regel auf eine Art von Muster trainiert. Beispielsweise ein Hund. Zeige ich dem Netz ein Katzenfoto, wird es sehr wahrscheinlich sehr weit daneben liegen. Ein trainiertes Netz kann meist nur eine Aufgabe erledigen – diese aber ziemlich gut. Die Fähigkeit schnell umzuschalten und andere Dinge zu interpretieren, haben wir Menschen den Algorithmen derzeit weit voraus. Klar, es gibt Dienste, wie die Cognitive Services von Microsoft, die bereits viel mehr erkennen und interpretieren. Dennoch kann unser Gehirn besser abstrahieren, vor allem wenn es sich um optische Täuschungen, bzw. Illusionen handelt.

Google Cloud Vision ist in der Lage, die Erkennung der bekannten Illusion einer Ente und eines Hasen korrekt zu klassifizieren und eben so wankelmütig zu sein, wie unser Hirn. Das ist schon beeindruckend, zumal das Bild nicht jeweils als einzelnes erkannt wird, sondern die Rotation der Illusion korrekt zugeordnet wird. Mag relativ primitiv klingen, ist für eine KI dennoch eine ziemlich große Leistung. Wieder ein Schritt näher an der Superintelligenz.

Photo by Scott Webb on Unsplash

Schreibe einen Kommentar