ÜBERLEGUNGEN ZU KÜNSTLICHER INTELLIGENZ UND ÖKOSYSTEMEN: Teil 1 – der Ansturm

For English version click here

για την Ελληνική έκδοση κάντε κλικ εδώ

 

chip in eye

Ich bin in meinem Inneren jemand, der auch im Alter weiter Neues lernt und bin der Meinung, dass alles miteinander verbunden ist. Ich nehme an einer Vielzahl von Konferenzen und Veranstaltungen (hier klicken) an verschiedenen Orten teil: in Barcelona, Spanien, Brüssel, Belgien, Cannes, Frankreich, Genf, Schweiz, Lille, Frankreich, London, England, München, Deutschland, Paris, Frankreich sowie Perugia, Italien. Das bietet mir eine Perspektive und eine ganzheitliche Ausbildung. Ich nenne das meine persönliche „Weltformel“.  

Diese Serie wird die zahlreichen Themen, über die ich schreibe, sowie Teile eines umfassenderes Bildes, das ich betrachte, zeigen. Es wird zudem eine Video-Serie daraus werden.

12 August 2016 (Milos, Griechenland)– Wie wahrscheinlich jeder andere auch fühle ich mich von Nullpunkten angezogen – von Achsen und Bezugspunkten, von welchen aus die Positionen und Entfernungen jedes Objekts im Universum bestimmt werden können:

  • der Äquator
  • der Nullmeridian
  • der Meeresspiegel

Auf dem großen Platz vor der Kathedrale Notre-Dame in Paris gab es einst einen Kreis (er verschwand leider, als der Parkplatz errichtet wurde und niemand dachte daran, ihn wieder einzurichten), von welchem aus alle Straßen-Distanzen in Frankreich berechnet wurden. Sogar andere Punkte auf der ganzen Welt konnte man von hier aus berechnen.

Und wir alle messen gerne, wo wir stehen, wie ein Blick in die Geschichte zeigt. Christian Thomsen, ein Sammler von Münzen mit nur geringer Ausbildung im Bereich der Altertumsforschung, begann im frühen 19. Jahrhundert mit der Einteilung des großen Spektrums der Menschheitsgeschichte in Steinzeit, Eisenzeit und Bronzezeit. Ja, genau. Schon kurz darauf gab es Einwände. Einerseits teilen sich archäologische Befunde nicht so deutlich entlang Materialgrenzen, wie Thomson sich das vorgestellt hatte. Zum anderen wendeten manche ein, dass sich die Einteilungen besser für Europa als für den Rest der Welt eigneten, wo sie nicht sinnvoll waren.

Und doch bestehen sie fort, sowohl im akademischen Bereich als auch in der öffentlichen Wahrnehmung – teilweise deshalb, weil sie eine wichtige Erkenntnis beinhalten: Materialien sind Wandlungsprozessen unterworfen. Günstige Schneidewerkzeuge aus Eisen ermöglichten es den Menschen etwa, fruchtbares Land zu entwalden und zu besiedeln. Damit wurde sowohl die Bevölkerung als auch die Herstellung von Eisen erheblich ausgeweitet. Im Laufe der Zeit stellen Kulturen Materialien her. Und Materialien führen zur Entstehung von Kulturen.

Heute betrachte ich das entlang der Linien der Technikgeschichte, wobei Zeitalter als “Vorher-Nachher“ betrachtet werden. Meine Welt besteht aus drei Ökosystemen oder Netzwerken, die einerseits eigenständig sind, aber andererseits auch zusammenlaufen. Oder die – um ein Motiv von Neri Oxman zu verwenden – sich mehr ineinander „verschränken“:

  • In meiner mobilen Welt bzw. Welt der Telekommunikation messen wir die Dinge „Vor dem iPhone/Nach dem iPhone“
  • In meiner Welt der e-Discovery messen wir die Dinge „Vor Peck/Nach Peck“
  • In meiner Welt der Neurowissenschaften messen wir die Dinge „Vor dem funktionellen Magnetresonanztomographen (fMRT)/Nach dem fMRI“.

Bereiten wir also den Weg…

Mit dem Ansturm der Künstlichen Intelligenz (KI) haben wir uns scheinbar in ein Stadium begeben, in dem wir annehmen, dass Intelligenz irgendwie der teleologische Endpunkt der Evolution ist – unglaublich anthropozentrisch und entlang jeder denkbaren Achse ziemlich falsch. Intelligenz ist eine Antwort der Evolution auf einen bestimmten Kontext und eine Reihe von Herausforderungen für das Überleben. Es gibt keinen objektiven Grund dafür, sie höher zu schätzen als Flugfähigkeit, Geschwindigkeit, Fruchtbarkeit oder Widerstandsfähigkeit gegen Strahlung.

Doch sie passt so gut zum aktuellen Thema, nämlich ob wir uns in einem „neuen Zeitalter“ befinden, welches als Anthropozän bezeichnet wird und in dem die Prägung durch den Menschen so groß und aktiv geworden ist, dass er den großen Kräften der Natur gleichkommt, was das Funktionieren des Erdsystems und der menschlichen Entwicklung betrifft.

Der atemberaubende Fortschritt von wissenschaftlichen Entdeckungen und Technologien haben in eine unbekannte Richtung geführt. Vor nicht allzu langer Zeit war die Schöpfung 8.000 Jahre alt und der Himmel schwebte einige tausend Kilometer über unseren Köpfen. Nun ist die Erde 4,5 Milliarden alt und das beobachtbare Universum umfasst 92 Milliarden Lichtjahre.

Und während wir kopfüber in dieses hektische Tempo der KI-Entwicklung geschleudert werden, unterliegen wir Illusionen zu Verständnis, einem falschen Sinn für Verstehen und sehen dabei nicht die entstehende Kluft zwischen dem, was das Gehirn kennt, und dem, was für den Verstand zugänglich ist.

Das ist natürlich ein Problem. Die Wissenschaft hat eine Ausbreitung von Technologie hervorgebracht, die in riesigem Ausmaß in alle Aspekte des modernen Lebens eingesickert ist. Die Welt wird in vielerlei Hinsicht so dynamisch und komplex, dass die technologischen Möglichkeiten die Möglichkeiten des Menschen, optimal mit diesen Technologien zu interagieren und sie zu nutzen, übersteigen.

Und wir werden uns dieser Komplexität bewusst – wenn auch langsam. Wie Melanie Mitchell in ihrem unverzichtbaren Buch Complexity: A Guided Tour schreibt, mögen wir komplexe Systeme (Witterungsverläufe, Märkte, Textanalyse, Populationsanalyse, Gehirn-Scanning, egal was), die sich als extrem sensibel für winzige Abweichungen bei den Ausgangsbedingungen erweisen – diese bezeichnen wir- mangels eines besseren Begriffs – als Chaos.

Wenn sich das, was Sie über die Wissenschaft zu Chaos wissen, auf die veröffentlichten Werke von Dr. Ian Malcolm beschränkt, werden Sie enttäuscht sein, zu erfahren, dass die Wirklichkeit darüber viel weniger sexy und viel mathematischer ist als bei Jurassic Park:

Ich bin kein Gegner von Technologie. Doch ich bin vorsichtig. Mein „Detektor“ ist stets eingeschaltet. Ich gehöre zur Church of Techticism, der brillanten neuen Mischung – „ein eigenartiger und schwierig auszusprechender Begriff, abgeleitet aus einer Kombination der Wörter  „Skeptizismus“ und „Technizismus“, zur Vermittlung eines allgemeinen Sinns für Misstrauen gegenüber der Welt der Mainstream-Technologie und deren PR-Maschinerie“.

Ich sehe das in meinen drei eigenen „Zeitaltern“, die oben beschrieben sind: Mobilfunk, E-Discovery, Neurowissenschaften. Diese haben sich niemals auf eine lineare Weise bewegt und werden dies auch niemals tun:

  • Im Mobil-Bereich sind Amazon Echo und Google Home ein Schlag ins Gesicht von Apple. Was geschieht, wenn es „kein Gerät“ gibt? Was geschieht mit diesem Vorteil und der Fähigkeit, ein höheres Preisniveau durchzusetzen, wenn es kein Produkt gibt, das man halten kann, wenn Aussehen, Materialien und „Look and Feel“ plötzlich verschwunden sind? Der Übergang zu Systemen, die wir nicht direkt betrachten müssen und welche uns über andere Mittel als durch einen integrierten Gegenstand mit Bildschirm Informationen rückmelden, verändern nicht nur die Spielregeln sondern vernichten sie vollständig und terraformieren dabei das Spielfeld. Zugegeben – unsere Besessenheit von Fotos und Kameras ist diesem Übergang zuvorgekommen. Instagram und Snapchat zeigen, dass wir, wenn es um soziale Interaktion geht, das Visuelle lieben. Dies legt nahe, dass Bildschirme und Geräte – anders ausgedrückt, Dinge, die wir tatsächlich halten und mit uns tragen – weiterhin wichtig blieben. In dieser Serie werde ich diesen Themen ein ganzes Kapitel widmen.
  • Vor kurzem entstand eine neue Philosophie im Bereich der e-Discovery, bei der e-Discovery als Wissenschaft gesehen werden sollte. Dies führte wiederum zur Entstehung einer neuen intelligenten Technologie, dem Predictive Coding. Dessen Fortschritt ist meiner Meinung nach alleine auf den Richter Andrew Peck und dessen wohl überlegte Unterstützung zurückzuführen (daher „Vor Peck/Nach Peck“). Doch was passiert, wenn es versagt? Letztes Jahr hatten wir schwere Fehler beim Predictive Coding:  85 % Falschmeldungen, tausende von Dokumenten, die die Predictive-Coding-Software nicht kodieren konnte, „modernste“ Software, die Fotos als Excel-Tabellen las und versuchte, sie umzuwandeln, ein Wechsel zu Brute-Force-Review etc. Um fair zu sein: Dies war auf die Komplexität der Daten und die schwache Umsetzung der Technologie durch die beteiligten Neulinge zurückzuführen. Ein Experte für Predictive Coding, der über den Fall informiert wurde, sagte: „Sogar die Dampfmaschine flog einige Male in die Luft, bevor wir sie richtig hinbekamen.“ Das mag sein. Technologie und Prozess werden sich verbessern. Predictive Coding wird sich aufgrund der Kollision zweier einfacher Haupttrends weiterentwickeln: (1) die Wirtschaftlichkeit von traditioneller linearer Überprüfung ist unhaltbar geworden, während (2) die frühen Ergebnisse jener, die Predictive Coding verwenden, beeindruckend sind. Doch in einer Welt, in der sofortige Befriedigung erwartet wird, ist es kein Wunder, dass einer der beteiligten Partner aus dem rechtlichen Bereich sagte: „Wenn das hier mit einem Knopfdruck erledigt werden kann und sogar ich es machen kann, ruft mich an.“ In einem späteren Kapitel werde ich auf diese Themen genauer eingehen.
  • Die moderne Neurowissenschaft wäre ohne die funktionelle Magnetresonanztomographie – oder fMRT – nicht möglich. Kurz gesagt ist fMRT eine besondere Form von MRT, einem bildgebenden Verfahren, das es ermöglicht, in den Körper zu sehen, ohne ihn aufschneiden zu müssen. Die Technik ist kaum 25 Jahre alt, doch tausende von Studien, die sie anwenden, werden jedes Jahr veröffentlicht. Die Überschriften schreien es förmlich heraus. Im letzten Monat wurde eine Karte des Gehirns, die auf fMRT-Scans basiert, als „wissenschaftlicher Durchbruch“ begrüßt. Doch nun wurden durch eine Serie von Studien schwere Mängel bei der Benutzung von fMRT durch Wissenschaftler entdeckt. Dies bezieht sich darauf, wie fMRT „normale Aktivität“ auffindet und interpretiert. Das Problem dabei: Was „normale“ Aktivität ist, kann von Objekt zu Objekt oder sogar von Person zu Person abweichen. Daher müssen diese KI-Software-Pakete und statistische Tests viele Annahmen machen und manchmal Abkürzungen bei der Unterscheidung zwischen echter Aktivität und Hintergrundgeräuschen benutzen. Deshalb rechnen Wissenschaftler mit einer Rate von 5 % Falschmeldungen, doch diese Serie von Studien ergab, dass diese viel, viel höher liegt. Dies wird ein schwieriges Kapitel darstellen, doch ich stütze mich auf mein Neurowissenschafts-Programm der Cambridge University, um Sie dabei zu begleiten.

Der „Frühling“ der KI – versuchen wir es noch einmal

Als ernsthaftes Forschungsfeld wurde Künstliche Intelligenz erstmals Mitte der 1950er-Jahre betrieben. Zu dieser Zeit rechneten die Forscher damit, die menschliche Intelligenz innerhalb der Zeitspanne einer akademischen Laufbahn nachzuahmen. Doch diese Hoffnungen wurden zerstört, als klar wurde, dass die Algorithmen und die Rechnerleistung dieser Zeit dieser Aufgabe einfach nicht gewachsen waren. Einige Skeptiker taten dieses Unterfangen sogar als reine Hybris ab.

Nach Jahrzehnten der Enttäuschung ist Künstliche Intelligenz nun endlich dabei, sich seinem frühen Versprechen zu nähern. Dies geschieht dank einer wirkungsvollen Technik, die als Tiefes Lernen bezeichnet wird. Darüber werden in dieser Serie ausführlich sprechen.

Während meines KI-Programms an der ETH Zürich lernte ich, dass die 1980er und die Gegenwart jeweils als „KI-Frühling“ bezeichnet werden. In diesen Zeiträumen führten Systemmodelle von Experten bzw. heute die Algorithmen für Tiefes Lernen zu großer Begeisterung bei der KI, bei Finanzierung, Startups, beim Krieg um Talente, der Aufmerksamkeit der Medien und in vielen anderen Bereichen. Ich würde diese Zeitspannen eher als „KI-Sommer“ und nicht als Frühling bezeichnen. Die Zeiträume des „KI-Frühlings“ sind jene Perioden, die diesen beiden „Sommern“ vorausgingen, also für die neueste KI-Begeisterung die 1990er und das frühe 21. Jahrhundert. Während diesen Frühlingszeiten wurde mir gesagt, dass „alle Blumen blühen“.

In der akademischen Welt gab es eine relativ ruhige, doch extrem produktive Zeit mit vielen verschiedenen Ideen und Modellen. Ich lernte die grundlegendsten Theorien und wichtige Prototypen der Bereiche Bildsegmentierung, Objekterkennung, Szenenverständnis, 3D-Rekonstruktion, Optimierung, grafische Modelle, SVM, neuronale Netze, Inferenzalgorithmen, Open-Source-Dateien, Benchmarking-Herausforderungen und vieles mehr kennen. Diese wurden zur Ausgangstechnologie für das heutige Tiefe Lernen, für AR, VR, selbstfahrende Autos etc. Das Verständnis für diese Entwicklung hat mir dabei geholfen, zu verstehen, wie wir den heutigen Stand erreicht haben.

Schließen wir diesen ersten Teil mit einer philosophischen Bemerkung ab

greg likes to be philosophical

“Greg philosophiert gern”

Was Künstliche Intelligenz betrifft, so sind Albtraum-Szenarien im Trend. Wir hören vom bevorstehenden Eintreffen des „Terminators“, einer Kreatur aus unseren ursprünglichsten Albträumen: groß, stark, aggressiv und beinahe unzerstörbar. Wir sind gut darauf vorbereitet, solch ein Wesen zu fürchten – schließlich ähnelt es den Löwen, Tigern und Bären, vor denen unsere Vorfahren solche Angst hatten, als sie alleine in der Savanne und der Tundra unterwegs waren. Es wird uns erzählt, dass sie zu unseren verantwortungslosen Herren werden und nur Zerstörung ernten.

Ich würde postulieren, dass, wenn Sie die Zeitung zur Hand nehmen oder Ihren News-Feed durchsuchen, die täglichen Nachrichten Leid zeigen, das tendenziell durch mächtige, verantwortungslose Menschen entsteht. Das haben wir also ganz gut selbst geschafft, vielen Dank.

Unser Problem wenn wir „an denkende Maschinen denken“, besteht darin, dass unsere Gefühle, Emotionen und intellektuelles Verständnis untrennbar damit verflochten sind, wie wir denken. Wir sind uns nicht nur dessen bewusst, dass wir ein Bewusstsein haben, sondern unsere Fähigkeit zu denken ermöglicht es uns, uns willkürlich an die Vergangenheit zu erinnern sowie uns eine Zukunft vorzustellen. Maschinen sind keine Organismen und egal wie komplex und ausgeklügelt sie werden, sie werden sich nicht durch natürliche Auslese entwickeln, so wie wir das getan haben.

Und darum geht es doch, nicht wahr? Egal, wie Maschinen gestaltet und programmiert werden, eine Fähigkeit, Gefühle und Emotionen zu haben, wäre kontraproduktiv dafür, was sie am wertvollsten macht. Sie sind nicht an die Unvernunft gebunden, die unseren Verstand lähmt.

Doch unser Urteil darüber, ob dies eine utopische oder dystopische Zukunft darstellt, wird auf Denken basieren, welches wiederum wie immer beeinflusst ist, denn es bleibt ein Produkt von analytischen Überlegungen, die durch unsere Gefühle und Emotionen gefärbt sind.

Und was das Ende der Menschheit betrifft: Es geht hier um die Perspektive. Ja, ich weiß: Das menschliche Leben ist etwas wahnsinnig Eigenartiges. Hier sind wir, auf der Oberfläche einer Felskugel, die um einen nuklearen Feuerball namens Sonne kreist und in der Dunkelheit eines Vakuums haben sich die Naturgesetze zusammengetan, um einen nackten Affen zu schaffen, der zu den Sternen aufsehen und sich fragen kann: „Wo zur Hölle bin ich hergekommen?!“ Staubpartikel in einer unendlichen Arena, vorhanden nur für einen Augenblick in der Ewigkeit. Atomklumpen in einem Universum mit mehr Galaxien als es Menschen gibt.

Doch leider gibt es chemische und Stoffwechsel-Grenzen, was die Größe und Rechenleistung „feuchter“ organischer Gehirne betrifft. Vielleicht sind wir an diesen schon fast angelangt. Aber siliziumbasierte Computer werden nicht durch solche Grenzen eingeschränkt (Quantencomputer vielleicht noch weniger): Für sie könnte das Potenzial für eine weitere Entwicklung so tiefgreifend sein wie die Evolution aus einzelligen Organismen zu Menschen.

Nach jeder Definition des „Denkens“ werden der Umfang und die Intensität von organischen, menschlichen Gehirnen durch die Gehirntätigkeiten der KI vollkommen überfordert. Zudem stellt die Biosphäre der Erde keine Beschränkung für fortgeschrittene KI dar. Sie ist sogar ganz und gar nicht optimal – interplanetarer und interstellarer Raum werden die besten Gebiete darstellen, in denen Roboterhersteller den größten Raum zur Konstruktion zur Verfügung haben und in denen nicht-biologische „Gehirne“ zu Erkenntnissen gelangen könnten, die für unsere Vorstellungskraft so unzugänglich sind wie die Stringtheorie für eine Maus.

Wie Martin Rees (ehemaliger Präsident der Royal Society, emeritierter Professor für Kosmologie und Astrophysik, University of Cambridge) es ausdrückt:

„Abstraktes Denken von biologischen Gehirnen war die Stütze der Entstehung jeder Kultur und Wissenschaft. Doch diese Aktivität – die bis zu dutzende von Jahrtausenden umfasst – wird nur ein kurzer Vorläufer für leistungsfähigere Intellekte des anorganischen Zeitalters nach dem Menschen sein. Außerdem könnte die Evolution auf anderen Planeten, die Sterne umkreisen, die älter als die Sonne sind, einen Vorsprung haben. In diesem Fall ist es wahrscheinlich, dass Außerirdische das organische Stadium bereits lange hinter sich gelassen haben.

Es wird also nicht der Verstand von Menschen, sondern jener von Maschinen sein, der die Welt am umfassendsten verstehen wird. Und es werden die Handlungen von autonomen Maschinen sein, die die Welt – und vielleicht das, was darüber hinausgeht – am radikalsten verändern werden.”

Nun fragen Sie sich vielleicht, was diese Serie umfasst? Eine kurze Zusammenfassung einiger kommender Kapitel:

Persönliches maschinelles Lernen

Technology is ruining us

Es ist falsch, anzunehmen, dass gemeinschaftliches maschinelles Lernen das einzige Wertversprechen für die Entwicklung von KI ist. Es gibt eine persönliche Seite und ich bin der Meinung, dass Amazon Echo und Google Home die primitiven Vorläufer davon sind. Es geht um „Training“. Jeder, der sich mit maschinellem Lernen beschäftigt, muss sein Netzwerk trainieren. Es gibt sehr große Datensätze, die die Grundlage großer gemeinschaftlicher Initiativen für Tiefes Lernen darstellen und sie bilden auch die Grundlage dafür, wie ein Netzwerk trainiert wird.

Persönliches maschinelles Lernen findet zurzeit statt, in dem Sinne, dass große Datensätze ein Netzwerk basierend auf gemeinschaftlichen Tendenzen und Daten trainieren. Es bahnt sich ein Kampf um den „persönlichen Lebens-Assistenten“ an – dieser wird von Konsumenten benutzt, um ihnen auf einer individuellen Ebene zu helfen. Er soll zudem klug und vorrausschauend dafür sein, was einzigartig für ihr Leben ist.

Wie Filter-Algorithmen funktionieren und unseren Blick auf die Welt verändern

Targeted advertising

Die öffentliche Diskussion wird verstärkt durch geschützte Software-Systeme, die im Besitz einiger Großkonzerne stehen, gesteuert. Google, Facebook, Twitter und YouTube beanspruchen Milliarden von aktiven Benutzern für ihre Social-Media-Plattformen. Auf diesen laufen automatisch Filter-Algorithmen ab, um zu bestimmen, welche Informationen diesen Benutzern in ihren Feeds angezeigt werden. Ein Feed ist üblicherweise als geordnete Liste mit Elementen organisiert. Filter-Algorithmen wählen aus, welche Elemente aufgenommen werden und wie sie angeordnet werden. Diese Algorithmen sind keineswegs neutral oder objektiv, sind jedoch starke Vermittler, die bestimmte Stimmen gegenüber anderen priorisieren. Ein Algorithmus, der steuert, welche Informationen oben landen und was unterdrückt wird, ist eine Art Torwächter, der den Datenfluss je nach den Werten, die in seinem Code enthalten sind, verwaltet.

In der überwiegenden Anzahl der Fälle informieren die Plattformen Benutzer nicht über die Filterlogik, die sie verwenden – und noch weniger ermöglichen sie ihnen eine Kontrolle über diese Filter. Im Folgenden beschreiben wir, wie Filter-Algorithmen auf den führenden Social-Media-Plattformen funktionieren und erklären danach, warum diese Plattformen eine bestimmte Filterlogik verwenden und wie diese eine politische Wirtschaftlichkeit der Informationsregelung strukturieren – vor allem auf Grundlage von Werbung und dem Verkauf von Konsumgütern.

Unsere erhöhte visuelle Kultur und die Ausbreitung von algorithmischen Techniken

 

Instagram snow photos

„Der nationale Wetterdienst empfiehlt diesen Gebieten, sich für lähmende Mengen von Schneefotos auf Instagram zu rüsten.“

Im Jahr 2015 stellte die Menschheit zwei oder drei Billionen Fotos ins Internet (Quellen: Google, Facebook, Magnum Photos). Unsere Gesichter, Straßen, Freunde – alles ist online. Nun zapfen Wissenschaftler diese Informationsader an und untersuchen Fotos in Massen, um uns neue Einblicke in unser Leben und unsere Städte zu geben. Ein Projekt namens AirTick verwendet beispielsweise diese Fotos, um Luftverschmutzung in den Griff zu bekommen. Die AirTick-App schätzt die Luftqualität durch die massenhafte Analyse von Fotos von Straßen in Städten ein. Die App untersucht Fotos von großen sozialen Tauschbörsen, prüft, wann und wo jedes davon aufgenommen wurde und wie die Kamera ausgerichtet war. Dann gleicht es die Fotos mit den offiziellen Daten zur Luftqualität ab. Ein Algorithmus maschinellen Lernens verwendet die Daten, um zu berechnen, wie der Schadstoffgehalt in der Luft einzuschätzen ist – nur auf der Grundlage dessen, wie er auf den Fotos erscheint.

Ein weiteres Beispiel ist Bildtechnologie wie das Portable Image Recognition and Analysis Transducer Equipment oder PIRATE von Honeywell. Dieses ist dafür konzipiert, in potenziell gefährliche Gebiete gebracht zu werden und über die Bedingungen zu berichten. Es kann abgelegen angebracht werden und liefert Daten an eine zentrale Stelle zurück – vor dem Betreten durch Menschen. Auch hier handelt es sich um einen Algorithmus maschinellen Lernens, der Daten nutzt, um die Gefahren zu berechnen.

Das fortschrittliche Cloud Vision API von Google für Textanalyse, welches über eine OCR (optische Zeichenerkennung)-Funktion verfügt. Diese kann den Text in einem Bild erkennen (unterstützt mehrere Sprachen), damit man den Text für leichteren Zugang und eine Analyse herausziehen kann.

Oder noch besser: 3D-Mapping bei Telefonen. Im letzten Jahr durfte ich den F&E-Bereich bei Qualcomm besuchen, um den Prototyp einer 3D-Mapping-Software für Handys zu besichtigen. Dieser verfügt über die Fähigkeit, eine Szene mit der Kamera des Handys buchstäblich zu scannen und die Bilder automatisch in drei Dimensionen zusammenzufügen. Zukünftig werden Zeugen bei einem großen Ereignis (vielleicht einer Schießerei der Polizei?) in der Lage sein, dieses mit ihren Handys so zu dokumentieren, dass andere in die Szene einsteigen können – so bekommen die Menschen ein augenblickliches Verständnis für das Ereignis, welches kein Video und kein Foto bieten kann.

In seinem Buch „How To See the World“ stellt Nicholas Mirzoeff fest, dass uns unsere erhöhte visuelle Kultur in Verbindung mit der Ausbreitung von algorithmischen Techniken für die Bildanalyse zu einer „Bedeutung durch Maschinenlernen“ führen wird. Ich werde eine Liste mit vielen dieser Kompetenzen aufstellen.

Daten-Journalismus

You work in print media

Jedes Jahre nehme ich (oder mein Team) am International Journalism Festival in Perugia, Italien, teil. Dort habe ich gelernt, die Aufmerksamkeit der Menschen in der herrschenden Kakofonie von Information zu bekommen. Wie man bestimmt, wann ein Inhalt eine umfassende Herangehensweise oder einen „Schnelldurchlauf“ erfordert. Und auch wie man eine Geschichte mit Daten erzählt und wie man damit eine Erzählung aufbaut.

In den letzten Jahren veröffentlichen viele Sitzungen zu KI-Technologie Geschichten: automatisierte Finanzbeiträge über standardmäßige Unternehmensgewinne (Associated Press gibt an, dass die Technologie es ermöglicht hat, 3.700 zusätzliche Berichte in jedem Quartal zu veröffentlichen) sowie ausgefeiltere Software wie „Emma“. In einem kürzlich ausgetragenen Wettbewerb zwischen einem Journalisten und einer Maschine wurde sowohl von „Emma“ als auch von ihrem Herausforderer verlangt, über die offiziellen Daten des Vereinigten Königreichs zur Beschäftigung zu schreiben. „Emma“ war tatsächlich schnell: Sie gab nach zwölf Minuten ab, während der „menschliche Journalist“ 35 Minuten benötigte. Und ihre Version war auch besser als erwartet. Zudem nahm sie sogar relevanten Kontext wie die Möglichkeit des Brexit auf – der Mensch ließ diesen aus.

Eine faszinierende Geschichte. Ich werde Ihnen noch erzählen, wie ich einen „Roboter“ dazu brachte, mir alles zu erzählen, was er über Pizza wusste.

 

Systeme zur Bearbeitung von Genen

We crossed lemmings

“Wir haben Lemminge mit Lachsen gekreuzt”

Ich werde „the age of the red pen“ behandeln – CRISPR und andere Systeme zur Bearbeitung von Genen, die alle das Produkt von genetischen Algorithmen sind, die unter sehr leistungsfähiger KI entwickelt wurden. Die Macht von CRISPR und anderen solchen Technologien verspricht es, unsere Zukunft auf unvorhersehbare Weise zu verändern. Wir werden zu den Herren unser eigenen Evolution und bestimmen, welche Arten von Änderungen an unserer Form und Funktion wir bei unseren Kindern einbauen.

Mathematisierte Steuerung

ignore the facts

Es wäre nachlässig von mir, KI und deren Auswirkungen auf Recht und Verordnungen nicht anzusprechen. Nicht ROSS von IBM und die anderen Anwendungen, die in den juristischen Medien verbreitet sind. Sondern die KI-Informationsverarbeitungssysteme, die bereits durch Computer in den Verordnungen und der Steuerung der Gesellschaft durchgeführt werden: mathematisierte Steuerung. Sie werden im Strafrecht in Bereichen wie Bewährung und Strafaussetzung, Kaution oder bei zu fällenden Entscheidungen zur Verurteilung eingesetzt. Und auch in Bereichen wie dem Wohnungswesen und bei Behandlungsentscheidungen, der Identifizierung von Menschen, die ohne Gefahr in ein Minimal-Sicherheitsgefängnis oder eine Resozialisierungseinrichtung geschickt werden können, sowie von jenen, die von einer bestimmten Art von psychologischer Betreuung profitieren würden.

Es ist die lauernde Gefahr in so vielen anderen Bereichen: Technokraten und Manager verdecken bestreitbare Werturteile unter dem Deckmantel der „Wissenschaft“ und befriedigen eine anscheinend unersättliche Nachfrage in diesen Tagen nach mathematischen Modellen, um alles neu zu strukturieren. Der Wert eines Arbeiters, eines Häftlings, einer Dienstleistung, eines Artikels eines Produkts – wovon auch immer – ist das unausweichliche Diktat von wichtigen, messbaren Daten.

KI-Technologie und die Explosion der Möglichkeiten zur Überwachung

oh are

“Oh, du greifst heute von zuhause aus an?“

Seit Beginn der historischen Aufzeichnungen hatten politische Einheiten – egal, ob sie als Staaten beschrieben werden konnten oder nicht – Krieg als ultimatives Mittel zur Verfügung. Gleichzeitig begrenzte die Technologie, die den Krieg ermöglichte, auch dessen Ausmaß. Für die mächtigsten und am besten ausgestatteten Staaten war Machtprojektion nur über begrenzte Entfernungen, in bestimmtem Umfang und gegen viele verschiedene Ziele möglich. Ehrgeizige Anführer waren eingeschränkt – sowohl durch Abkommen als auch durch den Stand der Kommunikationstechnik. Radikale Handlungsverläufe wurden durch die Geschwindigkeit ihrer Entfaltung gebremst.

Den größten Teil der Geschichte über entfaltete sich der technologische Wandel über Jahrzehnte und Jahrhunderte in zunehmenden Fortschritten, die bestehende Technologien verfeinerten und kombinierten.

Neu in der Gegenwart ist die Geschwindigkeit des Wandels bei der Rechenleistung und der Ausweitung der Informationstechnologie in jeden Bereich der Existenz. In seinem letzten Buch „World Order” stellte Henry Kissinger fest:

„Die Revolution bei der Computertechnik bringt erstmals so viele Personen und Prozesse in dasselbe Kommunikationsmedium und übersetzt und verfolgt ihre Handlungen in einer einzigen Technologiesprache. Der Cyberspace – ein Wort, das zu diesem Zeitpunkt vor allem als ein hypothetisches Konzept erst in den 1980ern geprägt wurde – hat den physischen Raum besiedelt und beginnt, zumindest in großen städtischen Zentren, damit zu verschmelzen. Die Kommunikation über ihn und zwischen seinen exponentiell wachsenden Knotenpunkten ist beinahe verzögerungsfrei. Das Gleichgewicht ist verschwunden.“ 

Die Kräfte der Technologie führen in ein neues Zeitalter der Offenheit, das vor nur wenigen Jahrzehnten undenkbar gewesen wäre. Regierungen, Journalisten und Nichtregierungsorganisationen (NGOs) können nun eine Flut an öffentlich zugänglichen Informationen, gewonnen aus kommerziellen Überwachungssatelliten, Drohnen, Smartphones und Computern nutzen, um versteckte Aktivitäten in umkämpften Gebieten zu enthüllen – von der Ukraine über Syrien bis zum Südchinesischen Meer. In den kommenden Jahren wird die Diplomatie weiterhin ihre Rolle dabei spielen, Staaten dazu zu bringen, ihre Aktivitäten offen zu legen, aber wirkliche Durchbrüche werden eher aus dem Silicon Valley als aus Genf kommen.

Ich werde die rasanten Fortschritte bei der KI-Technologie ansprechen, die eine Explosion der Möglichkeiten zur Überwachung angetrieben haben: kommerzielle Überwachungssatelliten, unbemannte Fluggeräte, Social Media Analytics, biometrische Technologien und Cyberabwehr.

Spracherkennung: der Heilige Gral der Künstlichen Intelligenz

You call that nudity

Das nennt ihr Nacktheit, Kraftausdrücke und Szenen sexueller Natur!“

Dies wird für mich das lustigste Kapitel, da hier meine KI-Studien an der ETH Zürich und meine Studien der Neurowissenschaften in Cambridge kombiniert werden. Für mich ist Sprache ein starker Teil sozialer Technologie. Sie übermittelt unsere Gedanken als kodierte Luftzüge oder als dutzende gezeichneter Symbole, die durch eine andere Person dekodiert werden. Sie kann Informationen über die Vergangenheit, Gegenwart und Zukunft bewegen, Ideen formalisieren, Handlungen auslösen, überreden, drängen und täuschen. Zudem ist Sprache grundsätzlich symbolisch – Laute stehen für Worte, welche wiederum für reale Objekte und Handlungen stehen.

Bei Sprache handelt es sich um eine spezifisch menschliche mentale Funktion, obwohl einige neurobiologische Anpassungen, die mit Kommunikation assoziiert werden, bei anderen Primaten, anderen Säugetier-Ordnungen und sogar anderen Tierarten zu finden sind. Für den Erwerb von Sprache ist es notwendig, ihr ausgesetzt zu sein (Kultur). Es gibt für die menschliche Sprache spezifische Allele einiger Gene und die Kreisläufe im Gehirn für Sprache befinden sich hauptsächlich lateral entlang der linken Gehirnhälfte (Lateralisation des Gehirns – dies werde ich noch genauer besprechen).

Und sie kann einen auch verrückt machen. In diesem Wahljahr in den Vereinigten Staaten (welches sich eher wie ein Jahrzehnt anfühlt) werden wir durch Leute mit dem IQ eines Gummibaums gefangen gehalten. Das stumpfsinnige Geplapper spuckt wie Fahrstuhlmusik maschinell erstellte Nachrichten, die in einer beruhigend vertrauten Schleife kommen und gehen sowie dasselbe Bildmaterial, dieselben Sprecher, dieselben Kommentare aus: Was letzte Woche gesagt wurde, wird mit Sicherheit diese Woche, nächste Woche und danach noch einmal in sechs Wochen gesagt. Der Ausschnitt kommt zurück – so sicher wie die Sonne – und verlangt vom vermeintlichen Bürger kaum etwas, abgesehen von andächtiger Beobachtung. Bereits in den 1950ern formulierte Albert Camus dieses Dilemma in einem Aphorismus: „Ein einziger Satz wird für den modernen Menschen reichen: Er trieb Unzucht und las die Zeitungen.“

Ich spreche drei Sprachen – Englisch, Französisch und Griechisch – und ich bin immer erstaunt, wenn ich ihre Unterschiede und deren Wirkung entdecke. Das Griechische hat zum Beispiel zwei Wörter für „blau“ – ghalazio für hellblau und ble für einen dunkleren Ton. Eine Studie ergab, dass Griechisch-Sprecher Blautöne schneller und besser als englische Muttersprachler unterscheiden konnten. Alexandra Dumont leitet mein Büro in Paris und ist eine französische Muttersprachlerin, die in dem Glauben aufwuchs, alle Eichhörnchen seien männlich. Das französische Wort für „Eichhörnchen“, écureuil, ist maskulin. Studien mit Französisch- und Spanisch-Sprechern, deren Sprachen Objekten Geschlechter zuweisen, weisen darauf hin, dass sie diese Objekte mit männlichen oder weiblichen Eigenschaften assoziieren.

Das französische histoire bedeutet „Geschichte“, sowohl im Sinne von „history“ als auch von „story“ im Englischen. Bei dem englischen „history“ ist das nicht so, sodass das Verhältnis zwischen „history“ und „story“ im Französischen vielleicht auf elegantere Weise zugänglich ist. Doch niemand hat im Englischen ein Problem mit dem Begriff „histories“, bei welchen es sich um Erzählungen handelt, die wir wie Chroniken erstellen.

In meiner e-Discovery-Welt habe ich an einem Betatest für eine neue Linguistik-Software teilgenommen (nennen wir sie „Syntax“ – ich habe den Namen gemäß meiner Vertraulichkeitsvereinbarung geändert). Stellen Sie sich das wie Mindseye oder Brainspace auf Speed vor. Ich nutzte es bei einer internen Untersuchung zu Finanzbetrug sowie bei einer kartellrechtlichen Untersuchung. Sie kann untypische Veränderungen bei Ton und Sprache in elektronischen Konversationen ermitteln und kann auch auf bestimmte Typen von Mitarbeitern zugeschnitten werden – im erstgenannten Fall auf Trader.

Spracherkennung war lange Zeit der Heilige Gral der Forschung im Bereich der Künstlichen Intelligenz. Fortschritt bei der Spracherkennung stand für Fortschritt bei der KI im allgemeinen Sinn. Und so wurde sie zu einem Richtwert und einem Gewinn.

GENIESSEN SIE IHREN SOMMER

Greece 1

Leave a Reply

Your email address will not be published. Required fields are marked *

scroll to top