fbpx

Künstliche Intelligenz und Algorithmen – Drei wichtige Aspekte die Unternehmer und Manager verstehen sollten

by Yara El-Sabagh

Exclusive im #ConfareBlog: Reinhold M. Karner: Künstliche Intelligenz und Algorithmen

Als DER·ERFOLG·REICH·MACHER hat Reinhold M. Karner (RMK) eine ganze Menge Hüte auf. Er ist Erfolgscoach, Unternehmensphilosoph, Unternehmensberater und Vordenker, Dozent an Hochschulen und Universitäten für Entrepreneurship, strategisches Management, ERP, KI und Digitalisierung, populärwissenschaftlicher Autor, Aufsichtsrat, Beirat sowie Ambassador für Österreich und Malta und Fellow des Think-Tanks RSA (Royal Society for Arts, Manufactures and Commerce, London, gegr. 1754). Was das ausdrückt? Reinhold hat eine bewegte Vergangenheit als IT-Pionier, Unternehmer und Denker. Außerdem ist Reinhold ein gerngesehener Gast auf den Bühnen der Confare CIOSUMMITS.

„Für mich ist Reinhold jemand, der wie kein Zweiter die Fähigkeit hat die komplexen Zusammenhänge aktueller Trends, technologischer und gesellschaftlicher Entwicklungen und den unternehmerischen Möglichkeiten aufzuzeigen.“, meint Confare Gründer Michael Ghezzo. In einem langen Gespräch haben Reinhold und Michael über die aktuellen wirtschaftlichen Entwicklungen und Krisen gesprochen und welche Chancen und Gefahren diese für IT- und Digitalisierung-Entscheider in den Unternehmen bereithalten. Dabei ist eine Reihe von Beiträgen entstanden, die wir Ihnen in den nächsten Wochen im Blog präsentieren.

In Teil 3 hat sich Reinhold intensiv mit dem Thema der Künstlichen Intelligenz und der Rolle von Algorithmen befasst. In der ihm ureigenen Weise macht er verständlich, was Unternehmer und Manager abseits der Hypes und Medienberichte wirklich wissen müssen.

Hier finden Sie Teil 1 des Interviews: JETZT LESEN

Hier finden Sie Teil 2 des Interviews: JETZT LESEN

Hier finden Sie Teil 4 des Interviews: JETZT LESEN

Themen, die auch für Sie relevant sind? Dann dürfen wir Sie zum persönlichen Austausch mit den IT-Leadern der wichtigsten Unternehmen auf die Confare CIOSUMMITs in Wien, Zürich und Frankfurt einladen.

Was sind aus Deiner Sicht die Megatrends (Digitalisierung, KI …), mit denen sich Entscheider heute bereits befassen sollten? 

RMK: Generell stelle ich in meinen Beratungen und Coachings fest, dass viele Unternehmenslenker sich noch immer damit schwertun, die Digitalisierung in ihrer Breite und Tiefe grundsätzlich und dann erst recht in Bezug auf den möglichen Nutzen oder auch Schaden für ihr Unternehmen zu verstehen. Das ist auch nachvollziehbar, denn die meisten, sehr erfahrenen Unternehmer oder Manager, kommen nicht aus dem IT-Dunstkreis und man kann nicht alles wissen.

Trotzdem ist es für den Erfolg ein Muss, sich damit vernünftig auseinanderzusetzen. Dabei sollte das IT-Chinesisch unbedingt außen vor bleiben, denn dieses hilft gar nichts. Je simpler und fundierter die Erklärungen und Praxisbeispiele, desto besser. Professionell aufgezogen ist das mit einem Intensiv-Crash-Kurs in wenigen Tagen machbar.

Die Digitalisierung professionell für seine Zwecke anzuwenden, ist in unserer Zeit in fast keiner Branche mehr wegzudenken. Oder kurz gesagt, es nicht zu tun, wird in absehbarer Zeit ein gravierender Wettbewerbsnachteil. Diese Technologie jedoch – richtig, angemessen und sinnvoll – zu nutzen, kann zu ungeahnten Erfolgen führen.

Es gibt für Unternehmensführer aus meiner Sicht drei zentrale Themen, die aus der Vogelperspektive prinzipiell gekannt und verstanden werden sollten:

Einerseits kommen wir heutzutage im Handumdrehen an unendlich viel Wissen, und das geradezu mühelos. Wir können im Internet, im digitalen Raum, Wissen an jeder Ecke, zu jeder Tages- und Nachtzeit, in jeder möglichen und unmöglichen Lebenslage für uns rekrutieren. Derart verfügen wir gewissermaßen über das Wissen der Welt.

Aber es geht gar nicht darum, unserem Wissen noch mehr Wissen hinzuzufügen. Sondern, es geht um das wesentliche Wissen! Und erst recht, um fundiertes, korrektes Wissen, um Fakten. Und infolge, zu vermeiden, dass wir vor lauter Überangebot an Informationen den Hausverstand ausschalten oder daran verdummen.

Das Zweite ist, dass längst Algorithmen (meist KI-gestützt), die Geheimwaffen von Unternehmen sind. Derart kennen uns so manche Systeme irgendwo in der Welt besser, als es unsere Mütter oder Partner tun. Mit nur 68 „Thumbs up“ (Daumen hoch), also Likes auf z. B. Facebook, kann analysiert werden, welche Hautfarbe, sexuelle Orientierung oder politische Ausrichtung jemand hat, anhand von 70 Likes kann ein guter Algorithmus den User besser einschätzen als dessen Freunde, 150 Likes und der Algorithmus kennt sie besser als ihre Eltern und mit bereits mit 300 Likes hat der Lebenspartner gegen die Maschine keine Chance mehr, und schließlich genügen 350 Likes und die Maschine kennt den User besser als er sich selbst.

Das Grundelement der neuen digitalisierten Welt im Zeitalter von Big Data ist der Mensch als Kunde, sprich, das personalisierte Datenpaket. Dabei möchte man gar nicht herausfinden, was dieses „Paket“ denkt, sondern wie sich sein Verhalten steuern und prognostizieren lässt. Menschliches Verhalten ist umso besser prognostizierbar, je mehr es sich in Gewohnheiten bewegt, was meist der Fall ist. Deshalb sind diese das bevorzugte Objekt der Begierde der Verhaltensforschung in der Konsumgüterindustrie. Eigentlich sind es sogar meist deren Goldgruben.

Verhaltensspezialisten sind heute nicht mehr so sehr die Psychologen und Soziologen, sondern eher Statistiker, Big Data Spezialisten und Informatiker. Denn KI-Algorithmen übernehmen vermehrt die Hauptrolle. Mit digitalen Technologien werden heute weit mehr Informationen und auch deutlich schneller als je zuvor gesammelt, verarbeitet, und sodann mittels KI-Algorithmen in neues Wissen übersetzt. Dies nicht nur bezogen auf Konsumenten, sondern fast alle Geschäftsprozesse und Bereiche betreffend.

Und letztlich, als dritter Themenkreis, sollte verstanden werden, was Künstliche Intelligenz wirklich ist, denn dieser Begriff ist völlig irreführend. Von der ursprünglichen Idee der KI funktioniert an sich bis heute „nur“ das Maschinelle Lernen (ML). Insbesondere, dank des Durchbruchs im Jahr 2012 des Teams unter Federführung von Stanford-Professorin Fei-Fei Li, das Deep Learning. (Siehe ihren spannenden TED-Talk dazu).

Und deren im Ergebnis trainierte, oft extrem komplexe Algorithmen, basieren bislang zu über 95 % auf dem Verfahren des „Supervised Learning“. Punkt. Diese bieten bereits mächtige, tolle und sehr nützliche Anwendungsmöglichkeiten. Das basiert alles auf Mathematik, insbesondere auf der Wahrscheinlichkeitsrechnung.

Dabei finde ich für die Business-Welt die Definition der kanadischen KI-Professoren Ajay K. Agrawal, Avi Goldfarb und Joshua Gans, die auch mehrere hochinteressante Bücher dazu verfasst haben, als bislang noch die beste, nämlich:

„KI ist eine Prognose-Technologie, und zwar eine sehr preiswerte. Ob für kfm. Entscheidungen, autonomes Fahren, Medizinanalysen, Wetter, Sprachverarbeitung (NLP), Steuerung, Chatbots, Finanzentscheidungen usw.

Dabei sind Prognosen als Inputs für die Entscheidungsfindungen zu verstehen, wobei diese auf Informationen basieren, die Sie haben, oft als “Daten” bezeichnet, und verwendet sie, um Informationen zu erzeugen, die Sie noch nicht haben.“

Inwieweit es damit z. B. Amazon eines Tages schafft, die Trefferquote bei Kaufempfehlungen an Kunden von dzt. nur 5 bis 10 % auf über 95 % zu steigern, um deren Konzern-Vision zu realisieren, das Geschäftsmodell von aktuell Shopping-Then-Shipping“ auf „Shipping-Then-Shopping umzudrehen, bleibt dahingestellt, zeigt aber, was man mithilfe der KI beispielsweise anpeilt.

Aber all die Träumereien von einer den Menschen in seiner Intelligenz überflügelnden maschinellen Fähigkeit, einer menschenähnlichen, starken KI oder gar „Superintelligenz sind – bislang – nur Humbug.

Der technologische Vater und Chefarchitekt der ARM-Prozessoren, Prof. Steve Furber ist u. a. auch der Chefentwickler des Human Brain Project (HBP), wo er mit seinem Team nach mehr als zehn Jahren Planungs- und Aufbauzeit Ende 2018 an der Uni Manchester und TU Dresden erstmals das neuromorphe SpiNNaker-System mit über einer Million ARM-Rechenkernen in Betrieb genommen hat. Es ist dies ein Forschungsprojekt der Europäischen Kommission, welches das gesamte Wissen über das menschliche Gehirn zusammenfassen und mittels computerbasierter Modelle und Simulationen nachbilden soll.

Steve gründete 1990 zusammen mit dem in Cambridge ansässigen Österreicher Dr. Hermann Hauser (damals CEO, nunmehr mit Amadeus Capital ein Deep-Tech Star-Investor) und Sophie Mary Wilson (Computer-Architektin) die britische ARM Ltd., heute ein Milliardenunternehmen. Dank deren energieeffizienter RISC-Architektur haben wir heute überhaupt Smartphones und Tablets. Längst werden jährlich um ein Vielfaches mehr (230 Milliarden Stück im Jahre 2022) an ARM-Prozessoren gefertigt und verbaut als von Intel.

Als Hermann und ich bei der Inbetriebnahme von SpiNNaker uns fragten, welche Gehirn-Simulationsleistung dieser spezialisierte Superrechner nun konkret haben werde und inwieweit sich diese in irgendeiner Weise exponentiell verhält, schrieb mir Steve dazu Folgendes (ins Deutsche übersetzt):

Lieber Reinhold,

das Gehirn ist recht modular aufgebaut, sodass die Zahl der Verbindungen nicht exponentiell mit der Zahl der Neuronen wächst. Tatsächlich hat sich gezeigt, dass eine Form der Rent’schen Regel für Gehirne genauso gilt, wie für digitale Schaltkreise – die Anzahl der Verdrahtungen folgt einem Potenzgesetz in Abhängigkeit von der Anzahl der Neuronen.

Eine einfachere Betrachtungsweise besteht jedoch darin, die Neuronen und/oder Synapsen zu zählen. Das menschliche Gehirn hat knapp 1011 Neuronen und 1015 Synapsen. Auf SpiNNaker können wir bis zu tausend Neuronen pro Kern modellieren, sodass eine Million Kerne 1 % der Anzahl der Neuronen im menschlichen Gehirn modellieren können, aber wir können wahrscheinlich höchstens 1012 Synapsen verarbeiten. Dies müssten aber die allereinfachsten Arten von Neuronen- und Synapsen-Modellen sein. Wahrscheinlich können wir mit einem Mausgehirnmodell umgehen, das 1.000 Mal kleiner ist als das menschliche Gehirn.

In der Praxis übersteigt ein komplettes (Echtzeit-)Modell des menschlichen Gehirns derzeit die Möglichkeiten jeder bestehenden Maschine. Es fehlen jedoch noch viele Daten und Erkenntnisse, um ein solches Modell zu erstellen, selbst wenn wir eine ausreichend leistungsfähige Maschine hätten!

Mit besten Wünschen, Steve

Fakt ist, dass bis heute noch nicht verstanden wird, wie das menschliche Gehirn überhaupt funktioniert. Deshalb schrieb Steve auch davon, dass sie erst einmal mit den allereinfachsten Arten von Neuronen- und Synapsen-Modellen arbeiten. Somit ist es nicht möglich für eine 1:1-Simulation weitestgehend einen präzisen, identen, sozusagen digitalen Zwilling (Digital-Twin) an Hardware und Software überhaupt nachzubauen. Bevor uns die Gehirnforschung nicht alle Rätsel entschlüsselt, ist dies aussichtslos, kann man sich nur behutsam herantasten.

Für mich ist eindeutig klar, unser Gehirn arbeitet jedenfalls sicher nicht digital und mathematisch. Ich denke, wir suchen sogar am falschen Ort, um unser Gehirn, unseren Verstand zu verstehen. Denn die Schöpfung, das Universum besteht lediglich aus rd. 5 % Materie, aber alles andere, der Hauptteil ist Schwingung, Geist – oder wie immer man es auch nennen mag. Für mich stellt sich das derzeit so dar, als würde jemand, der zum allerersten Mal z. B. mit der Digitalisierung zu tun hat und dieses „moderne Wunderwerk“ wissenschaftlich ergründen wollte, sich nur darauf fokussieren, alles Sichtbare, physisch Greifbare zu untersuchen. Also nur die Hardware und Infrastruktur. Ich denke, wir sind uns rasch einig, selbst wenn man hundert Jahre derart daran forscht, würde nie verstanden, wie und warum die Digitalisierung funktioniert. Denn auch Betriebssysteme, Firm- und Software und so vieles mehr an „Unsichtbarem“, tragen dazu bei, dass das Gesamtwerk „Digitalisierung“ funktioniert.

Es ist ein wenig ähnlich wie beim Thema Urknall, der nach meinem Verständnis wenig erklärt, sondern einfach nur ein hübsches Bild für die Grenzen des Erforschbaren ist. Nach dem Motto, bis zum Urknall, kurz davor, kann man mithilfe all der modernen Technologien, z. B. dem James-Webb-Weltraumteleskop (JWST) hinsehen, aber zum Urknall selbst nicht. Und schon gar nicht dahinter, nämlich, was war denn vor dem Urknall? Oder, warum fand er überhaupt statt? Oder, warum fand er so statt und nicht anders? Oder, so man dabei auch noch die Frage der Zeit sozusagen experimentell auf den Kopf stellen wollte, warum fand der Urknall gerade dann statt und nicht früher oder später?

Deshalb meine ich, benötigt man in der Wissenschaft noch ganz andere, neue Perspektiven. Dazu reicht wohl selbst die Erforschung der hoch spannenden Quantenphysik nicht aus, um das ganze Geheimnis der „Funktionsweise“ unseres Gehirns, des Denkens, der Inspiration und Intuition usw. verstehen, geschweige denn es „nachbauen“ zu können.

Schon lange vor dem Aufkommen der modernen Physik, im frühen 19. Jahrhundert, stellte Johann Wolfgang von Goethe (1749-1832) in seinem Werk Faust (Faust I, Vers 382 f.) die Frage nach der Beschaffenheit der grundlegenden Bausteine der Welt: „Dass ich erkenne, was die Welt, im Innersten zusammenhält“.

Bis heute sucht die Physik nach einer mathematischen Erfassung des Universums, nach der »Weltformel« und verweist dabei für dieses Bemühen gerne auf dieses Goethe-Zitat. Die Antwort durch die Wissenschaft lässt noch auf sich warten.

Die Wissenschaftler des Schweizer Blue Brain Project haben 2017 in einer Studie, ihre Erkenntnisse über das menschliche Gehirn veröffentlicht, die einen demütig erstaunen ließen. So stellten sie fest, dass unser Gehirn in sogar 11 Dimensionen denkt.

“Es ist, als ob das Gehirn auf einen Reiz reagiert, indem es einen Turm aus mehrdimensionalen Blöcken baut [und], beginnend mit Stäben (1D), dann Brettern (2D), dann Würfeln (3D) und dann komplexeren Geometrien mit 4D, 5D usw. Der Fortschritt der Aktivität durch das Gehirn ähnelt einer mehrdimensionalen Sandburg, die sich aus dem Sand materialisiert und dann zerfällt”, sagt deren Teammitglied, der Mathematiker Ran Levi von der Aberdeen University in Schottland.

„Wir haben eine Welt gefunden, die wir uns nie vorgestellt hatten. Es gibt zig Millionen dieser Objekte, sogar in einem kleinen Hirnfleck, bis zu sieben Dimensionen. In einigen Netzwerken haben wir sogar Strukturen mit bis zu 11 Dimensionen gefunden”, sagte der leitende Forscher, Neurowissenschaftler Henry Markram vom Schweizer EPFL-Institut.

Der heutige Computer kann aber nur binär, digital, also mit 0 und 1, rechnen und verbraucht dazu – im Verhältnis zum Gehirn – gigantisch viel Energie, sprich Strom. Der Quantencomputer arbeitet übrigens auch nicht viel Gehirn-konformer.

Das Training großer ML-Modelle benötigt extrem leistungsfähige Rechner, die viele MWh fressen. Unser Gehirn hingegen verbraucht nur rund 20 W/h und schafft dabei mit seinen rd. 90 Mrd. Neuronen und rd. 500 Billiarden Synapsen noch viel komplexere Überlegungen. Davon ist die KI noch Lichtjahre entfernt, so sie dies überhaupt jemals erreicht.

Und es geht gar nicht nur um die Leistungsfähigkeit beim Rechnen, nichts anderes macht die KI, denn unser Gehirn kann noch immens viel mehr.

Dass uns Menschen die Computer bei der einen oder anderen Aufgabe überlegen sind, hat nichts mit Intelligenz zu tun. Auch mechanische Maschinen sind uns seit der industriellen Revolution bezüglich unserer Muskelkraft weit überlegen, davor waren es schon Tiere, wie Pferde. Und das stört uns auch nicht, im Gegenteil, es hilft uns. Hinsichtlich großer Rechenaufgaben, mit großen Datenmengen, war uns schon 1979 das erste Spreadsheet, die erste Tabellenkalkulation, ein Vorgänger von Excel, Visicalc von Dan Bricklin am Apple II, haushoch überlegen. Aber auch das hatte und hat bis heute gar nichts mit Intelligenz zu tun. Es handelt sich, gleich wie bei der KI, einfach nur um ein komplexes, maschinelles Rechnen.

Ich denke, diese 3 Themenkreise fundiert zu verstehen, ist ein Schlüssel für alle Business- und IT-Entscheider, damit man sich nicht verrückt macht.

Klar könnten wir nun auch noch in mögliche Zukunftstechnologien der Computer einen Einblick nehmen, wie in die Quantencomputer, die Lichtcomputer-Technologie oder das DNA-Computing oder warum die Nanometer-Angabe für Chips längst zur Mogelpackung wurde. Das ist zwar alles sehr spannend, aber momentan für Business-Anwender auch nicht mehr und würde hier wohl zu weit führen.

Ein Dauerbrenner ist natürlich die Frage der Cybersicherheit. Ich denke, damit kann man sich gar nicht genug auseinandersetzen, da jeden Tag neue Tricks erdacht und Lücken entdeckt und ausgenützt werden. Oft, wie bekannt, mit verheerenden Folgen, wenn man sich nicht adäquat schützt.

Aber auch die KI-Thematik, konkret das Maschinelle Lernen (ML), ist längst in der Hype-Cycle-Phase „Plateau der Produktivität“ angekommen und macht viel Sinn.

Ansonsten, für eher eingeweihte IT-Profis, schadet ein Blick in Gartner Inc.’s alljährliches Ranking der Emerging Technologies nicht. Andere Analysten bieten Ähnliches. Einfach um am Laufenden zu sein, die Buzzwörter am Radar zu haben und zu wissen, was grob dahintersteckt. Das kann sich jeder selbst dort frei ansehen bzw. downloaden. Sich damit zu beschäftigen heißt aber nicht, dort überall gleich ernsthaft einzusteigen, denn auch Gartner und die anderen haben keine Kristallkugel und daher fallen im nächsten Jahr viele dieser Themen wieder raus und kommen andere, neue hinzu.

Im Gartner Bericht über Emerging Technologies 2022 werden z. B. 3 Bereiche und darin zahlreichen Topics aufgezeigt.

Dieser Link führt Sie zu Reinhold M. Karner’s „RMK-Denkwerkstatt“: https://www.rmk.org/de/denkwerkstatt

Für Sie ausgewählt

Leave a Comment