CR221 Ist das schon Denken? ()
Mit Googles Programm „AlphaGo“ schlug eine künstliche Intelligenz (KI) Lee Sedol, einen der stärksten Go-Spieler der Welt, klar mit 4:1. Ein paar Tage später stellte Microsoft mit dem Chatbot „Tay“ eine KI vor, die sehr schnell, und vor allem sehr unkritisch, alles nachplapperte, was man ihr vorsagte. Langsam scheinen KIs dem Labor zu entwachsen, doch was heisst das für uns? Kann man diese Programme wirklich als „intelligent“ bezeichnen? Und wie funktionieren sie überhaupt?
Ich finde diese Maschinen überhaupt nicht beeindruckend.
Ja, mit riesigem Aufwand an Hardware und Platz und Stromverbrauch schafft so eine Maschine nun also einen menschlichen Spieler zu schlagen – dessen Hirn dabei aber nur das Volumen einer kleinen Salatschüssel hat und nur ca. 25W Bioelektrizität verbraucht. Und außer Go zu spielen vielleicht noch Kochen, Gitarre spielen, spontane Unterhaltungen führen und tausend andere Sachen zusätzlich beherrscht, für die reichlich kognitive Fähigkeiten notwendig sind.
Der Go Computer ist für mich bestenfalls ein „Fachidiot“ der schon an simpelsten Aufgaben jenseits des Go scheitern würde. Somit ist das definitiv keine Intelligenz, jedes kleine Reptilienhirn hat mehr Intelligenz. Denn Intelligenz bemisst sich nicht alleine an messbaren Leistungen – mein alter Schultaschenrechner kann besser rechnen als ich. Ist er deswegen intelligenter als ich?
Ich finde diese Maschinen schon beeindruckend. Heutige Computer können sich Terabytes an Daten gleichzeitig merken und sie innerhalb von Nanosekunden abrufen. Sie können Verzeichnisse in einem Augenblick durchsuchen, für die ein Mensch Jahre brauchen würde. Sie werden nie müde und rechnen fast immer richtig.
Ein Mensch hingegen kann sich ca. 7 Informationseinheiten gleichzeitig merken, vielleicht 2 Rechenoperationen pro Sekunde ausführen und macht dauernd Fehler. Sein Denken ist selektiv und fehlerhaft, er ist anfällig für Beeinflussung und einfache psychologische Tricks.
Die Natur hat mit den Nervensystem ein System geschaffen um biologische Funktionen (Bewegung, Futteraufnahme, Flucht & Kampf) optimal und mit niedrigem Energieaufwand zu erledigen. Zur Verarbeitung größerer Informationsmengen und zum schnellen Finden wahrscheinlich optimaler Lösungen für wirklich komplexe Probleme aber leider ungeeignet.
Gibt es Ideen zur Nutzung Künstlicher Neuronaler Netze für die Wettervorhersage? Konkret schwebt mir folgender Anwendungsfall vor: Ein Neuronales Netz wird gefüttert mit den Daten mehrerer Wettervorhersagen unterschiedlicher Anbieter für meine Postleitzahl (z.B. Temperatur, Niederschlag in 1, 2, 3, 4, … Stunden sowie morgen und übermorgen und während der nächsten 7 Tage.) Eine Wetterstation im Garten misst Temperatur und Niederschlag und gibt diese als „Zielwerte“ an das Netz.
So wird das Netz ständig trainiert und sollte dann in der Lage sein, auf Basis der Eingabe-Wettervorhersagen eine optimierte Wettervorhersage für diesen Ort auszugeben.
Ich arbeite in der Landwirtschaft und da ist das Wetter sehr entscheidend. Zu wissen, wann es (wie viel) Regen geben wird ist, ist wichtig, um zu entscheiden, wann das Feld bearbeitet wird und zum Beispiel beim Heumachen.
Gibt es bereits irgendwas in der Richtung?
Und wie viel Rechenleistung wäre dafür notwendig?
Hi,
Die Idee find ich total plausibel. Ich kenn kein fertiges Projekt das genau auf die Art Wettervorhersagen mit eigenen Messungen kombinieren kann, aber du hast es ja eigentlich schon geknackt: Input- und Targetvariablen sind dir klar, damit ist es eine schöne klassische Regressionsaufgabe, genau das was (u.A.) neuronale Netze können. Die Datenmenge ist auch übersichtlich, das wird auf einem normalen PC gut gehen – oder auf einem kleinen raspberry pi. Programmierst du gern? Dann könnte ich noch ein paar Links & Tipps zum Einstieg raussuchen.
Hallo umruehren,
vielen Dank für die Rückmeldung. Ich programmiere nicht wirklich, nur ein bisschen in der bash. Leider habe ich auch nicht die Kapazitäten frei, das selbst umzusetzen, da ich in der (ökologischen) Landwirtschaft arbeite, die mich voll beansprucht. 🙂
Ich hatte gehofft, es gäbe schon etwas in der Richtung, da die Idee meines Erachtens auf der Hand liegt…
Vielleicht fühlt sich jemand anderes berufen die optimierte Wettervorhersage umzusetzen.
Hi,
den Abschnitt zu Neuronalen Netzen und lernen fand ich nicht gerade Plausibel.
Wenn ein Kind Intuitiv lernen will, ob etwas mit Füller oder Bleistift geschrieben worden ist, nimmt es einen Füller oder Bleistift und Probiert aus was mit dem „Werkzeug“ Möglich ist und entwickelt so ein Unterscheidungsmodell.
Jedes Kind würde frustriert aufgeben wenn es immer nur zu hören bekommt das etwas nicht stimmt und nichts daraus lernen. Daher denke ich das diese Methode ungeeignet ist. Um wirklich intelligent sein zu können muss ein Programm ein Objekt und seine Interaktion Simulieren können. z.B. um einen Hund auf Bildern sicher erkennen zu können, müsste eine Ki, ein 3D Modell eines Hundes und seine Bewegungsmöglichkeiten, aus Filmen per motioncapturing errechnen. Ohne das wissen das ein Objekt 3Dimensional flexibel oder beweglich ist kann ein Programm Fotos nicht richtig interpretieren.
Die Idee mit dem Emailsortieren (oder taggen) finde ich überfällig! Dass überhaupt irgendjemand Zeit und Geld darauf verwendet, Go zu spielen so lange so eine grundlegende Sache wie Emailsortierung noch nicht geregelt ist…
Zudem ist die Technologie zum Erkennen von Spam ja vorhanden, jemand müsste nur mal Ein- und Ausgabe ein wenig aufbohren. Dann brauchts nur noch ein Standard für Tags in IMAP…
Erklärungsansatz: Entwicklungen im Machine-Learning gehen im Bereich E-Mail heute meist in proprietäre Technik. Im Bereich Spam-Filtering gibt es immer mehr Anbieter, die Cloud-Services anbieten. Davon profitieren natürlich nur zahlende Kunden, die bereit sind, ihren Traffic zu den Servern dieser Anbieter routen.
IBM hat in der Richtung ein wenig geforscht. Es gibt da ein Lotus Notes-Plugin namens „SwiftFile“, das eingehende Emails direkt in passende Ordner sortieren kann. Es errechnet für jede Kategorie eine Art Score und schlägt dem Benutzer die drei Ordner mit dem höchsten Score vor. Aus den so vom Nutzer nachklassifizierten Mails werden dann die Vorschläge verfeinert.
http://www.research.ibm.com/people/r/rsegal/papers/dynlearn.pdf
Ich habe vor ca. 10 Jahren ein ähnliches System für URLs und Webseiteninhalte entwickelt (http://www.dfki.de/lwa2005/fgml/paper02.pdf) und möchte versuchen das auf Email-Folder zu übertragen. Es handelt sich dabei um einen einfachen Regellerner. Emails sollte man mit einem einfachen Set Covering Regellerner gut klassifizieren können. Man sucht dafür einfach nach Patterns, die in E-Mails im Zielordner möglichst häufig vorkommen, und außerhalb möglichst selten. (entsprechend dem TF-IDF-Maß). Im klassischen Information Retrieval setzt mal TF-IDF auf Wörter an, d.h. die tokenization findet an Whitespace-Grenzen statt. Natürlich kann man bei semistrukturierten Dokumenten, wie z.B. bei E-Mail-Headern, auch andere Tokenizer unterlegen. Dadurch erhält man unter Umständen eine schärfere Abgrenzung der Kategorien und das System funktioniert dann besser.
Eine einfache Erklärung für ein Neuronale Netz mit ca. 6 Neuronen steht in Kap. 3-5 der Buchs „Lernen: Gehirnforschung und die Schule des Lebens“ von Manfred Spitzer, das schon 2007 erschien. Insgesamt kann ich dieses Buch aber NICHT empfehlen.
Wenn man nicht alle Möglichkeiten durch probieren kann, weil es zu viele sind, ist es nützlich, wenn man jede Spielstellung für sich bewerten kann. Dann kann man, ab einer gewissen negativ Bewertung Zweige weg lassen, was den Suchbaum verkleinert. Bei Schach funktionieren solche Bewertungen einer Spielstellung wohl zumindest zeitweise (z.B.: eine „Dame“ zu haben ist nützlich). Bei Go soll es keine brauchbare Bewertungen einer Spielstellung geben.
Wenn man keinen vollständigen Lösungsweg kennt, dann kann man ein Verfahren anwenden, das mit einer bestimmten Wahrscheinlichkeit zu einer richtigen Lösung führt. Wenn man dieses Verfahren dann mehrfach anwendet, wird es immer wahrscheinlicher, das die Lösung stimmt. Ein Beispiel für einen solchen unsicheren Lösungsweg ist der Test für sehr große Primzahlen. AlphaGo soll solche wahrscheinlich richtigen Lösungswege verwenden.
In der Sendung wurde gesagt, das es unheimlich wäre, wenn man nicht wüsste, was eine KI-Maschine tut. Dann ist es eine gute Idee, eine Maschine zu bauen, die sich (und vielleicht auch die Welt) dem Menschen erklärt. Ob etwas schwierig zu erklären ist, hängt ganz wesentlich davon ab, wie man es erklärt und das hängt wieder wesentlich davon ab, wie lange man darüber nachgedacht hat. Prinzipiell schwierige Dinge kommen wohl eher nicht aus den Naturwissenschaften sondern aus der Soziologie und Psychologie. Ein Beispiel für maschinelles Erklären in der Schul-Mathematik ist die „Show-Steps“-Funktion in:
http://www.symbolab.com
(kostenlos)
und
http://www.wolframalpha.com
(gegen Geld)
Ich würde es bedauern, wenn eine KI mehr bewundert wird, wenn der Mensch ihr unterlegen ist, als wenn die KI den Menschen unterstützt.
Ein Film, der einige Aspekte einer KI thematisiert, war vor ca. 1,5 Jahren „Transcendence“.
Als Ergänzung dazu ein herausragender Blog Post von Tim Urban – The AI Revolution: The Road to Superintelligence
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
(zwei sehr gut investierte Stunden Lesezeit)
Einerseits ist die heute typische Verwendung des Begriffs künstliche Intelligenz nicht vollkommen abwegig: Wir messen menschliche Intelligenz auch durch eine Batterie von Tests auf die Fähigkeit domänenspezifische Probleme zu lösen. Nur wenn man dieses Verständnis heranzieht, ist ein Taschenrechner eben auch künstliche Intelligenz, sogar überlegene künstliche Intelligenz, was das Rechnen mit großen Zahlen, Funktionen oder das Reproduzieren von Zahlenketten angeht.
Also ist andererseits die Verwechslungsgefahr bei dieser Verwendung groß. Man sieht ja, wie über AlphaGo berichtet und das System sofort im Sinne menschenartiger Intelligenz gedeutet wird. Und bei Deep Blue klang das auch schon an. Statt von einer Künstlichen Intelligenz sollte man also eher von der Nachbildung von Intelligenzkomponenten sprechen. Oder alternativ den Begriff nicht mehr für die Zielvorstellung eines Systems verwenden, das die Komplexität der Welt ähnlich wie ein Mensch oder darüberhinausgehend verarbeiten kann und solche System anders bezeichnen.
Na ja, bei Schah kann man alle Züge theoretisch berechnen., bloss weil es so viele Atome nicht gibt? 1Megawatt sind 1800 Haushalte, was ist das mit den Autos? Und diesese Inteligenzbolzen arbeiten an KI?
Was ist Intelligenz? Grob gesagt selbständiges lösen von Problemen unter Einbeziehung von Erfahrung, erlernen von neuem und Verknüpfung dessen zu neuen Erkenntnissen und Lösungsansätzen. Wobei dies wohl auch zwangsläufig Selbsterkenntnis bewirkt.
Die Kinder die interviewt werden sind Trolle. KI sollte von intelligenten lernen und nicht Antifa und Linken und vor allem nicht von Berlinern
Hallo, wo finden ich denn die Links (Shownotes) die im Podcast erwähnt wurden?