Selbstfahrende Autos: PyTorch bei Tesla

Tesla

Wer einen Einblick in die Komplexität von selbstfahrenden Autos bekommen möchte, dem sei Andrej Karpathys Talk während der PyTorch DevCon 19 ans Herz gelegt. Als Senior Director Artificial Intelligence bei Tesla kann er die Komplexität hinter den Algorithmen und Neuronalen Netzwerken anschaulich erläutern. Eine Straße und die jeweilige Verkehrssituation zu erkennen und zu deuten, fordert einiges von den verwendeten Netzwerken und Algorithmen. Vor allem die Kombination von etlichen Sensoren und Kameras erhöhen die Komplexität erheblich.

Photo by Vlad Tchompalov on Unsplash

Deep Fakes kommen in der Masse an

Dass Deep Fakes ein Problem darstellen werden, habe ich bereits an anderer Stelle ausführlicher beschrieben. Mit meiner Einschätzung bin ich nicht ganz alleine. Mittlerweile sind auch durch Medien mit großer Reichweite auf diese Problematik gestoßen. Claire Wardle von der New York Times erklärt in einem YouTube-Video sehr gut, worin die eigentliche Herausforderung liegt:

Ihre Kernaussage ist, dass man keine Deep Fakes benötigt um zu manipulieren oder Stimmung zu machen. Damit hat sie recht. Dennoch unterstützen Deep Fakes die sogenannten Shallow Fakes auf einem ganz anderem Level. Entscheidend ist, dass es immer schwieriger wird, zu unterscheiden, was real ist, und was nicht. Und ihr Schlussappell kann man gar nicht besser auf den Punkt bringen:

KI/Machine Learning in Computerspielen

Controller

In der Historie von Computerspielen hat KI schon lange Einzug gehalten. NPCs sollten sich möglichst menschlich verhalten, Gegner nicht nur Kanonenfutter sein. Betrachtet man beispielsweise die FIFA-Reihe, stellt man schnell fest: Die Gegner werden immer besser. Ich habe mich gefragt, wo bereits heute Machine Learning Modelle in aktuellen Spielen verwendet werden. Wenn schon Zahnbürsten intelligent werden, muss es doch hier auch etwas geben.

WTF, AI! Warum habe ich noch gesunde Zähne?

Die Auswüchse in Sachen KI kennen keine Grenzen. Marketingabteilungen fühlen sich gezwungen, auch auf banalste Dinge einfach mal „Künstliche Intelligenz“ zu pappen. So auch Oral-B, die elektrische Zahnbürsten herstellen. Mit dem Modell Genius X 20000N (Wer denkt sich solche Namen aus?) zieht angeblich KI in die Bäder und vor allem Münder ein. Da stellt sich sehr schnell die Frage, was ist denn intelligent an den Zahnbürsten? Das kann Oral-B sehr gut erklären:

Bewegungssensoren verfolgen Ihr Putzverhalten mithilfe künstlicher Intelligenz in Echtzeit. Die Sensoren erkennen während des Putzens die genaue Position der Zahnbürste und sorgen so für optimale Ergebnisse.

Wenn das tatsächlich Intelligenz sein soll, dann ist jeder Näherungssensor im Auto und jeder Lagesensor in Geräten wohl als Intelligenz anzusehen. Jede Fliege hat mehr Intelligenz. Sie schafft es, der nahenden Hand schnell auszuweichen und wohlduftende Nahrung zu finden. Mich würden die Trainingsdaten für diesen hochkomplexen Algorithmus in den Zahnbürsten interessieren.

Das wäre nur noch von einer intelligenten Haarbürste zu toppen, oder? Die kam allem Anschein nach aber nicht wirklich auf den Markt.

WTF, AI! AGB mit KI prüfen

Hand aufs Herz: Keiner liest AGB von modernen Plattformen, wie Facebook, Twitter und Co. Aber alle stimmen zu. Es ist kein Geheimnis, dass diese AGB mehr Worte umfassen, als ein Stück von Shakespeare. Der Inhalt ist jedoch erheblich trockener und hat weniger Substanz.

Da kaum einer diese Terms & Conditions liest, weiß man auch nicht so genau, was zugestimmt wurde. Wie ethisch korrekt sind die Unternehmen? Was geschieht mit meinen Daten?

Daten, da ist wieder das Öl der Neuzeit. Werden meine Daten zu irgendwelchen Trainingszwecken benutzt? Gesichtserkennung, Verhaltensanalysen etc.?

Das Projekt Useguard dreht den Spieß um. Eine KI analysiert die AGB! Was dabei rauskommt ist nicht wirklich überraschend. Useguard verteilt Noten nach der Analyse der Textwüsten. So bekommt Twitter ein F (die amerikanische Note für eine glatte Sechs).

Augmented Reality kreativ eingesetzt

Augmented Reality ist seit einigen Jahren in aller Munde und im Gartner Hype Cycle nicht wegzudenken. Für mich stellte sich immer die Frage nach kreativen Einsatz der Technologie. Seit dem AR den Einzug in die Mobiltelefone vollzogen hat und mit Unterstützung von Machine Learning auch ohne spezielle Marker funktioniert, wurde der Hype noch größer. Für mich stellte sich immer die Frage nach dem wirklichen Nutzen von AR. Für was kann es im Alltag genutzt werden und einen unterhaltenden Mehrwert liefern. Pokémon Go funktioniert auch ohne AR.

Adrien Mondot und Claire Bardainne haben AR jüngst in einem Buchprojekt verwendet um damit das Medium Buch, Theater, Tanz und AR zu Einem verschmolzen.

Das Ergebnis sieht wundervoll aus und zeigt, dass AR auch kreativ wirklich wundervoll und unterstützend benutzt werden kann. Das Projekt kann noch bis zum 28.11.2019 bei Kickstarter unterstützt werden. Generell wünsche ich mir mehr Lehrbücher mit AR, die komplexe zusammenhänge mit Animation und in 3D erklären. AR ist nicht tot, ich gehe davon aus, dass es noch sehr viel mehr kreative und nützliche Kleinigkeiten geben werden, die uns Menschen wirklich „Erweitern“ (engl. augmented).

Wieder neun Einträge später – Irgendwas fehlt…

Ich habe nach 13 neuen Artikel mein Fazit zum Reboot eines Blogs zum Besten gegeben. Darin habe ich meinen Workflow und das verwendete System kurz erläutert. Ich war WordPress.com ggü. relativ positiv gestimmt. Alles aus einer Hand, keine Administrationstätigkeiten. War auch so – bis ich etwas exotischere Plug-ins haben wollten. Die Preise, die ab diesem Zeitpunkt aufgerufen werden, sind mir ehrlich gesagt zu viel. Daher bin ich zurück auf eine selbst gehostete Variante migriert. Ich kann mir mein WordPress einrichten, wie ich es benötige. Cache, Tracking, Social Media etc.

Mein bisheriges Fazit ist, dass WordPress.com zu unflexibel ist. Da nehme ich liebend gerne in Kauf, mich um meine Installation zu kümmern. Ich persönlich hoste bei den Ubernauten von Uberspace. Es bleibt kein Wunsch offen, ich bin flexibel und zahle das, was ich möchte.

Photo by Patrick Fore on Unsplash

WTF, AI! Mit Deep Learning Audiospuren splitten

Seit ca. 1996 spiele ich aktive E-Bass. Ich habe in Coverbands angefangen und mir mühsam die Bassspuren herausgehört und somit die Songs gelernt. Manchmal war es leichter, manchmal schwerer und öfters war meine Interpretation auch falsch. Was habe ich mir gewünscht, die Spur völlig isoliert hören zu können. Seiten mit vollständig notierten Songs in Tab-Notation gab es noch nicht.

Heute haben wir es leichter. Nicht nur, dass es Tabs von allen erdenklichen Songs gibt, es gibt auch nützliche Tools, die ich mir sehnlichste gewünscht hatte, damals.

Deezer hat so ein Tool bzw. ein trainiertes neuronales Netz jüngst zur Verfügung gestellt. Damit können Songs in verschiedene Tracks gesplittet werden. Der Gesang, Drums oder auch Bass können isoliert werden. Das funktioniert ziemlich gut, egal, mit welchen Stücken ich es getestet habe. Natürlich sind die isolierten Spuren nicht lupenrein, dennoch ist es sehr beeindruckend und zeigt, was mit Deep Learning realisierbar ist. Schön ist auch die Tatsache, dass Deezer dieses Tool als Open Source veröffentlicht hat und zum experimentieren einlädt.

Photo by Samuel Ramos on Unsplash

Eliza – Oder: Alexa, wer ist deine Mutter?

Es muss irgendwann in den Achtzigerjahren gewesen sein. Ich sitze in meinem Klassenzimmer und schreibe eine Wortliste ab. Ein paar Tage zuvor habe ich aus einem Magazin ein Listing für meinen Commodore 64 abgetippt: Eliza.

Eliza war ein Chatbot. Anhand einer einfachen Analyse der getippten Worten und einem Abgleich mit einem relativ einfachen Thesaurus (jedenfalls in diesem Listing) konnte der Bot auf viele Aussagen mit einer entsprechenden Antwort kontern. Meist waren das Rückfragen.

Ich: Ich habe ein Problem mit meinen Kindern
Eliza: Erzähle mir mehr über deine Familie.

Im ersten Moment hatte man das Gefühl, die Maschine ist zum Leben erwacht! Mit der kompletten Wortliste wurde jedoch schnell klar, dass es eben nicht wirklich eine intelligente Maschine ist. So gehörte der Krieg als Mutter aller Probleme plötzlich zur Familie … Dennoch war diese erste Erfahrung für mich beeindruckend.

Eliza wurde viele Jahre zuvor, genauer im Jahr 1966, von Joseph Weizenbaum entwickelt und sollte als virtuelle Psychologin dienen. Sie hört immer zu, hinterfragt Dinge und gibt den Patienten das Gefühl, dass endlich jemand auf sie eingeht.

Betrachtet man sich die Chatbots im Hier und Heute, findet man sehr schnell viele Parallelen. Natürlich haben wir heute viel mehr an wissen, auf das ein Chatbot zugreifen kann. Dennoch ist das Grundverhalten das Gleiche. Mit Blick auf Amazon Echo und wie die Skills für die Sprachassistenten entwickelt werden, merkt man schnell, dass wir immer noch die gleichen Prinzipien verwenden. Dennoch sprechen wir von der KI und intelligenten Assistenten. Am Ende ist es doch meist nur eine Idee aus den späten sechziger Jahren.

Photo by Rock’n Roll Monkey on Unsplash