Profil anzeigen

Neues zur mächtigen Sprach-KI GPT-3 | Plus: Die KI-News der Woche

Neues zur mächtigen Sprach-KI GPT-3 | Plus: Die KI-News der Woche
Von KI-Briefing.de • Ausgabe #72 • Im Browser ansehen

Guten Tag zum neuen KI-Briefing.de
Kann KI verstehen, was sie macht – oder rechnet sie dann doch nur Wahrscheinlichkeiten aus? Nun, es ist Letzteres – und wir Menschen sollten darauf achten, dies stets im Hinterkopf zu haben. Es sind Maschinen.
Aber es gibt ja durchaus eine Gefahr, dass wir in die Aussagen einer KI viel mehr Verständnis hineininterpretieren als tatsächlich vorhanden. Das geht soweit, dass Kinder Sprachassistenten wie Alexa für schlauer halten als Menschen, wie die KI-Expertin Kenza Ait Si Abbou im Spiegel berichtet.
Eine der wohl mächtigsten Sprach-KIs ist GPT-3, ein Programm des US-Unternehmens OpenAI. Es sorgt aktuell für viel Aufmerksamkeit. Denn diese KI ist mit einem gewaltigen Datensatz gefüttert worden. Man gibt GPT-3 ein paar Sätze vor, danach schreibt das Programm Roman, Artikel, Geschichte, und so weiter selbstständig weiter.
How do you know a human wrote this? Woher wisse man denn noch, ob ein Mensch diesen Text geschrieben hat? So lautet die Überschrift zu einem New-York-Times-Artikel über GPT-3. Spektrum hat einen sehr guten Hintergrundartikel veröffentlicht, den ich Ihnen empfehlen kann. Von dem doch recht erfolgreichen Versuch mit Hilfe von GPT-3 einen Blog zu schreiben, berichtet unter anderem Heise.
Aber bitte werfen Sie auch einen Blick auf den Text, den die MIT Technology Review dazu veröffentlicht hat. Dieser zeigt, dass die KI eben doch Fehler macht beim Weiterschreiben von Texten. Einfach, weil GPT-3 die Welt, wie wir sie kennen, nicht versteht, sondern nur rechnen kann. Oder halten Sie das für einen guten Tipp, wenn Sie ihren breiten Tisch nicht durch die Wohnzimmertür bekommen: „…you will have to remove the door. You have a table saw, so you cut the door in half and remove the top half.“? Auf der Website der der MIT Technology Review finden Sie noch mehr Beispiele.
Eine erfolgreiche Woche, bleiben Sie schlau.
Herzliche Grüße, Ihr Nikolaus Röttger
Weitere Meldungen
Die Corona-Pandemie hat gezeigt, wer im KI-Wettrennen zwischen China und den USA besser aufgestellt ist, schreiben Ex-Google-Chef Eric Schmidt und Harvard-University Professor Graham Allison in einem Gastbeitrag für Project Syndicate. Während die USA KI-Technologien im letzten halben Jahr hauptsächlich als Schlagworte verwendeten, seien Algorithmen in China zur Virus-Eindämmung genutzt worden, indem man Bewegungen der Bewohner verfolgt und Testfähigkeiten erweitert habe.
Deutschlands digitale Herausforderung sei keine ethisches, sondern ein kommerzielles Problem, schreibt FAZ-Redakteur Alexander Armbruster. Deutsche Unternehmen entwickelten „zu wenige auf Künstlicher Intelligenz und Big Data basierende Applikationen“. Darum könnten sie nicht mit den Produkten internationaler Anbieter mithalten.
Warum der Facebook-Login-Zwang für Oculus eingeführt worden ist, versucht Mixed-Herausgeber Matthias Bastian in seinem Kommentar herauszufinden. Eine Möglichkeit: Das Unternehmen könne durch Bewegungsmuster der Nutzer neue Datensätze generieren, um Künstliche Intelligenzen zu trainieren.
Nicht nur bei Spielen, sondern auch bei militärischen Luftkämpfen habe die Künstliche Intelligenz aufgeholt, schreibt der Standard. Ein Computer habe sich bei einem simulierten Luftkampf der US-Behörde DARPA gegen einen Piloten der US Air Force durchsetzen können.
KI selbst programmieren oder kaufen? Kommt drauf an, schreibt Stefan Ramershoven in seinem Kommentar im Magazin CIO. Vor allem, wenn die Technologie „maßgeblich zu Wettbewerbsvorteilen und zum Erfolg des Unternehmens beitragen könne“, sollte sie selbst entwickelt werden, rät er.
Ein Hannoveraner Startup hat eine Navigationssoftware entwickelt, die für Autofahrer alternative Routen bei Staus berechnen kann. Den entsprechenden dpa-Beitrag hat unter anderem Heise veröffentlicht. Die Software des Unternehmens könne pro Minute bis zu 24.000 Routenpläne auf Basis von rund eineinhalb Millionen Rohdaten anpassen, heißt es.
Longread
Künstliche Intelligenz sei keine Lösung für soziale und ökologische Probleme, heißt es in einem interessanten Gastbeitrag von Annika Kettenburg bei Netzpolitik.org. Der Text basiert auf einer Masterarbeit der Studentin für Umwelt- und Nachhaltigkeitswissenschaften. Weil Technologien wie KI Produkte menschlicher Vorstellungen und Interessen sind, seien sie fehleranfällig und böten Potenzial für Manipulationen.
Mitarbeit: Steve Haak
Hat Dir diese Ausgabe gefallen?
KI-Briefing.de

Bleiben Sie schlau: Hier ist Ihr KI-Briefing.de mit News und Analysen zu Digitalisierung und Künstlicher Intelligenz

Wenn Du keine weiteren Ausgaben mehr erhalten möchtest, kannst Du den Newsletter hier abbestellen.
Wenn Dir dieser Newsletter weitergeleitet wurde und er Dir gefällt, kannst Du ihn hier abonnieren.
Powered by Revue