Wie der Computer zum intelligenten Wesen wird

Immer mehr Unternehmen setzten zur Verbesserung ihrer Wertschöpfung auf den Einsatz von Künstlicher Intelligenz. Doch nach welchen Prinzipien funktionieren eigentlich KI-Programme und für welche Zwecke lassen sie sich nutzen? Aufschluss darüber gibt ein historischer Überblick.

Den Grundstein für das Fachgebiet der Künstlichen Intelligenz legte der britische Mathematiker Alan Turing im Jahr 1936. Turing bewies, dass eine Rechenmaschine – eine sogenannte «Turingmaschine» – in der Lage ist, kognitive Prozesse auszuführen. Die Bedingung dafür ist, dass sich diese Prozesse in mehrere Einzelschritte zerlegen lassen und durch einen Algorithmus dargestellt werden können. 1950 entwickelte Turing ein Test-Verfahren, um zu prüfen, ob ein Computer selbständig denken kann. Hierfür führt eine Versuchsperson mit zwei unsichtbaren Gesprächspartnern ein Gespräch. Danach muss die Versuchsperson entscheiden, welcher der beiden Gesprächspartner der Computer war. Wenn mindestens 30 Prozent der Versuchspersonen den Computer nicht erkennen, gilt der Test als bestanden.

Aus Konferenz entsteht erstes KI-Programm.
Der Begriff «Künstliche Intelligenz» trat erstmals im Jahr 1956 am «Summer Research Project on Artificial Intelligence» in Erscheinung. Dies war eine ambitionierte, sechswöchige Konferenz, die am Dartmouth College in New Hampshire in den USA stattfand. Die Konferenz gilt als Geburtsstunde für das Fachgebiet «Künstliche Intelligenz» als wissenschaftliche Disziplin. Die Konferenzteilnehmer waren davon überzeugt, dass Denkprozesse auch ausserhalb eines menschlichen Gehirns möglich sind. Als Resultat der Konferenz entwickelten der Informatiker Allen Newell, der Programmierer Cliff Shaw und der Wirtschaftswissenschaftler Herbert Simon das Programm «The Logic Theorist». Die Aufgabe des Programms war es, mithilfe von Logik und Vernunft mathematische Theoreme zu beweisen. Es wird als «erstes Programm für künstliche Intelligenz» bezeichnet.

Im Jahr 1966 entwickelte der deutsch-amerikanische Informatiker Joseph Weizenbaum den weltweit ersten Chatbot Eliza. Dieser war so programmiert, dass der Eindruck entstand, er könne die Rolle eines Psychotherapeuten einnehmen. Das Programm reagierte allerdings lediglich auf Schlüsselworte und antwortete häufig mit Fragen oder allgemeinen Phrasen. Auch war der Dialog mit dem Chatbot nur über eine Computertastatur möglich. Weizenbaum war überrascht, mit welch einfachen Mitteln man Menschen die Illusion vermitteln kann, ein Gespräch mit einem Partner aus Fleisch und Blut zu führen. Viele Probanden hatten nämlich den Eindruck, der virtuelle Psychotherapeut hätte Verständnis für ihr Problem.

Wird menschliche Intelligenz überflüssig?
Die 70er-Jahre waren geprägt von einem wissenschaftlichen Streit über das Potenzial von Künstlicher Intelligenz für praktische Anwendungen. Bezugnehmend auf die Arbeiten von Alan Turing waren Allen Newell und Herbert Simon von der Carnegie Mellon University der Ansicht, dass es für den Vollzug von Denkprozessen kein menschliches Gehirn braucht. Denken sei nichts anderes als Informationsverarbeitung und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Eine klare Gegenposition zu dieser Meinung ergriff der Philosoph John Searle. Gemäss der Auffassung von Searle können Maschinen mittels Künstlicher Intelligenz die kognitiven Fähigkeiten von Menschen zwar simulieren und nachahmen, sie sind aber nicht wirklich intelligent, sondern scheinen lediglich intelligent zu sein.

Als Ergebnis der wissenschaftlichen Auseinandersetzung stehen sich bis heute mit der schwachen und starken Künstlichen Intelligenz zwei konträre Positionen gegenüber. Die Verfechter der starken Künstlichen Intelligenz plädieren dafür, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Die Vertreter der schwachen Künstlichen Intelligenz sind der Ansicht, dass menschliches Denken gebunden ist an den menschlichen Körper, insbesondere an das Gehirn.

Erstes Expertensystem für medizinische Zwecke.
An der Universität Stanford wurde 1972 der Grundstein für sogenannte Expertensysteme gelegt. Expertensysteme sind Computerprogramme, die Menschen bei komplexen Problemstellungen unterstützen. Entwickelt wurde das System MYCIN, das Künstliche Intelligenz erstmals für medizinische Zwecke einsetzen sollte. Das neue Expertensystem war in der Lage, die Diagnose und Therapie von Infektionskrankheiten zu unterstützen, indem es aufgrund von zahlreichen Parametern geeignete Antibiotika vorschlug. MYCIN wurde allerdings nie in der Praxis eingesetzt. Die Skepsis war zu gross und es mangelte an technischen Möglichkeiten, um das System für eine breite Anwendung verfügbar zu machen.

Bei der historischen Betrachtung der Entwicklungen im Bereich der Künstlichen Intelligenz wird oft die Auffassung vertreten, dass sich die Forschung in diesem Gebiet wellenartig entwickelte. Eine Periode, in denen es innovative Neuerungen gibt, bezeichnet man als KI-Sommer und für Zeiträume, in welchen die Entwicklung stagniert, verwendet man den Begriff KI-Winter. So werden beispielsweise auch die 80er-Jahre als KI-Winter aufgefasst. Weil die hohen Erwartungen an die KI-Forschung nicht erfüllt wurden, stoppten viele Regierungen, allen voran die USA, ihre Forschungsgelder. Ausgehend von der Zeit des kalten Krieges hatte die USA enorme Geldsummen investiert zur Bereitstellung eines Übersetzungssystems, das Dokumente in Russischer Sprache automatisiert übersetzen sollte. Doch die KI-Forscher hatten die Komplexität der Aufgabe unterschätzt.

In den 80er-Jahren stellten KI-Forscher immer wieder fest, dass Aufgaben, die für Menschen sehr einfach sind, für Computer eine grosse Herausforderung darstellen und umgekehrt. So ist es für Menschen schwierig, komplexe mathematische Probleme zu lösen, während Computer Mühe damit haben, Bilder oder Sprache zu erkennen oder Bewegungen auszuführen. Dieses Prinzip wurde unter anderem von Hans Moravec beschrieben und wird auch als Moravecsches Paradox bezeichnet.

Sprachcomputer auf Basis von neuronalem Netzwerk.
Einen positiven Impuls für das Fachgebiet der Künstlichen Intelligenz gab es im Jahr 1986 mit dem Programm «NETtalk». Denn damit brachten Terrence J. Sejnowski und Charles Rosenberg den Computer zum Sprechen. Das Programm konnte Wörter lesen und korrekt aussprechen sowie das Gelernte auf ihm unbekannte Wörter anwenden. «NETtalk» gehörte damit zu den frühen sogenannten neuronalen Netzwerken. Das sind Programme, die mit grossen Datenmengen gefüttert werden und darauf aufbauend eigene Schlüsse ziehen können.

Bei der Betrachtung der historischen Entwicklung von Künstlicher Intelligenz fällt der Fokus auch auf die beachtliche Leistung von Rechnern, die bei Brett-, Computer- oder anderen Spielen gegen Menschen spielen. Es zeigt sich immer wieder, dass moderne Computer sogar die besten menschlichen Spieler übertreffen können. Bereits 1997 konnte die Weltöffentlichkeit beobachten, wie das IBM-System «Deep Blue» den russischen Schachweltmeister Gary Kasparov besiegte. Und im Jahr 2011 gewann das Computerprogramm «Watson» (ebenfalls IBM) in der amerikanischen Quiz-Show Jeopardy gegen die besten Quizmeister. 2016 übertraf die Deepmind-Software AlphaGo von Google den südkoreanischen Spitzenspieler Lee Sedol bei einer Spielpartie auf dem chinesischen Bettspiel Go. AlphaGo schlug Sedol 4:1. Das Resultat erstaunt angesichts der Komplexität des Spiels. Hat der erste Spieler bei Schach 20 mögliche Züge zur Auswahl, sind es bei Go 361 Züge.

Schnellere Rechner fördern maschinelles Lernen.
Ungefähr ab dem Jahr 2010 begann eine Phase der Kommerzialisierung von KI-Anwendungen. Als besondere Innovationen für den Alltagsgebrauch der Menschen begannen sich die Sprachassistenten Siri und Alexa zu etablieren. Im Geschäftsbereich schritt die Automatisierung von Arbeitsprozessen voran und das Internet der Dinge konnte für immer mehr Anwendungsbereiche genutzt werden. Dank der immer besseren Rechnerleistung konnten die Computer immer besser für das maschinelle Lernen genutzt werden. Beim maschinellen Lernen generiert der Computer selbstständig Wissen aus Erfahrungen. Er kann damit auch eigenständig Lösungen für neue und unbekannte Probleme finden. Auch das Deep Learning erreichte einen neuen Boom. Deep Learning ist ein Teilgebiet des maschinellen Lernens, bei welchem neuronale Netze in mehreren Schichten genutzt werden. Es entsteht eine umfangreiche innere Struktur des Netzes. Deep Learning kann zum Beispiel dafür genutzt werden, Bilder zu erkennen, Texte zu verstehen oder präzise Entscheidungen zu treffen.

Grosse Datenmengen zur Effizienzsteigerung nutzen.
Ab dem Jahr 2020 ergaben sich im Bereich Künstliche Intelligenz viele weitere Trends. Die Unternehmen begannen sich zum Beispiel auf die Machine Learning Operations (MLOps) zu konzentrieren. In einem funktionsübergreifenden und kooperativen Prozess soll das maschinelle Lernen für möglichst viele Anwendungsgebiete in einem Unternehmen produktiv genutzt werden. Die Unternehmen sollen aus ihren Daten wertvolle Informationen gewinnen können, beispielsweise, wenn es um Workflows, Traffic-Muster und das Bestandsmanagement geht. Neue Möglichkeiten zur Effizienzsteigerung im Supply Chain Management ergeben sich durch die immer bessere Verfügbarkeit von digitalen Daten über die Kosten und die Lieferbarkeit von Gütern und Ressourcen. Bereits heute stellen die B2B-Plattformen wlw (ehemals «Wer liefert was») und EUROPAGES grosse Mengen solcher Daten zur Verfügung. Das Unternehmen Visable als Träger der beiden Plattformen nutzt selber KI-Programme zur Pflege der Daten, beispielsweise zur Bereitstellung von Schlüsselwörtern für die Datensuche oder zur Eliminierung von Daten-Duplikaten.

 

Über Visable:
Visable unterstützt industriell tätige Unternehmen, deren Produkte und Dienstleistungen für Einkäufer international zugänglich zu machen. Als speziell auf Geschäftskunden zugeschnittene Verbindung aus eigenen B2B-Plattformen und Online-Marketing-Services wie zum Beispiel Google Ads und Retargeting bietet das Unternehmen ein breit gefächertes digitales Portfolio zur Reichweiten-Steigerung im Internet.

Zu den von der Visable GmbH betriebenen Plattformen gehören wlw («Wer liefert was»), heute die führende B2B-Plattform in der D-A-CH-Region sowie die europäische B2B-Plattform EUROPAGES, auf der rund 3 Millionen Firmen registriert sind. Zusammen erreichen die Plattformen monatlich bis zu 3.6 Millionen B2B-Einkäufer, die nach detaillierten Unternehmens- und Produktinformationen suchen.

Mit seinen Online-Marketing-Services bietet Visable Unternehmen zusätzliche Möglichkeiten, ihre Reichweite im Internet zu erhöhen.

Das Unternehmen Visable entstand als Antwort auf die Herausforderungen der Internationalisierung und Digitalisierung im B2B-Bereich. Visable ist in Hamburg, Berlin, Münster und Paris präsent und verfügt über eine Schweizer Zweigniederlassung in Baar. Insgesamt sind rund 480 Mitarbeitende beschäftigt. Als gemeinsames Dach für die Marken wlw und EUROPAGES baut Visable seine Plattformen und Online-Marketing-Services kontinuierlich aus.

Vom Verlagshaus zur Tech-Company.
Wie wird aus einem ursprünglich traditionell ausgerichteten Unternehmen eine erfolgreich wachsende Tech-Company? Dieser Frage geht Peter F. Schmid, CEO des Unternehmens Visable, in seinem neuen Buch «Mission Wandel» nach. 1932 als Herausgeber des Nachschlagewerks «Wer liefert was» gegründet, hat sich Visable in den vergangenen Jahren von einem Verlag zu einem agilen internationalen Internet-Unternehmen gemausert. Den weitreichenden Change-Prozess beschreibt Schmid in seinem neuen Buch «Mission Wandel: Von einem Old-School-Unternehmen zu einer Tech-Company – die Geschichte einer Transformation». Darin erzählt er von Erfolgen, Wachstumsschmerzen und den Herausforderungen des Online-Geschäfts. «Mission Wandel» ist erhältlich im Springer Gabler Verlag.

LOGISTIK express Journal 4/2022

Zukunft Logistik. Logistiktrends 2030

In den nächsten zehn Jahren werden selbstfahrende Fahrzeuge, Next Generation Security, Supergrid Logistics, Quantencomputer, 3 D-Druck und Digitale Zwillinge die Logistikbranche gewaltig verändern.

Redaktion: Dirk Ruppik.

Die globale Logistik durchläuft gewaltige Transformationen. Die rasanten technologischen Entwicklungen im Bereich Algorithmen, Big Data Analysis, Künstliche Intelligenz, etc. führen zu vielen neuen Anwendungen und Trends. Laut dem 5. Logistics Trend Radar von DHL gehören zu den Megatrends in den nächsten fünf Jahren mit großen Auswirkungen auf die Logistikbranche u. a. die Nachhaltige Logistik, die Omnichannel Logistik, Künstliche Intelligenz, Blockchain, das Internet der Dinge und Big-Data Analysis. In den nächsten zehn Jahren werden selbstfahrende Fahrzeuge, Next Generation Security, Supergrid Logistics, Quantencomputer, 3D-Druck und Digitale Zwillinge einen großen Einfluss auf die Logistikbranche haben.

Supergrid Logistics führt zu modularen Diensten und größerer Effizienz.
Das logistische Supergrid basiert auf einer globalen Instanz oder (cloudbasierten) Plattform, die reibungslos und flexibel alle Parteien entlang von Versorgungsketten integrieren kann. Dadurch entsteht ein Angebot von modularen Diensten für alle Kundengruppen mit dem Ziel die Kosten und die Transitzeiten zu reduzieren sowie die Effizienz zu maximieren. Durch das Supergrid wird eine neue Generation an Logistikern entstehen, die sich hauptsächlich auf die Verküpfung von globalen Supply Chain-Netzwerken fokussieren, die viele Hersteller und Logistikanbieter integrieren.

Dadurch werden neue Geschäftsmöglichkeiten beispielsweise für 4PL-Logistiker, spezialisierte Logistikanbieter, kleine Expressdienstleister und Startups entstehen und der Kunde kann von einer Vielzahl von Services den besten auswählen. Durch diese Plattformen wird eine neue Transparenz im Markt entstehen und speziell kleinen Unternehmen Zugang zum globalen Markt verschaffen. Die Tatsache, dass Kunden weltweit Waren über das Internet direkt beim Hersteller unter Auslassung des Einzel- und Großhandels bestellen können, ist ein weiteres Argument für das Entstehen eines logistischen Supergrids durch das die Kunden die besten und passensten Dienste auswählen können.

Globale Marktteilnehmer werden überwiegend auf die grenzüberschreitende Integration von Diensten, Premium-Marktsegmente sowie die Zusammenstellung von regionalen Diensten und Logistikdienstleistern die normalerweise Wettbewerber sind, fokussieren. Alibaba‘s Smart Logistics Network (Cainiao Network, gegründet 2013) mit Sitz in Hang-zhou arbeitet taktisch bereits auf ein Supergrid Logistics-Netzwerk hin.

Quantencomputer optimieren Supply Chain.
Quantencomputer besitzen eine millionenfach höhere Rechenleistung als selbst Supercomputer. Es ist zu erwarten, dass sie die logistische Welt extrem verändern werden – und das nicht nur im Bereich der Algorithmen, sondern auch in der Verschlüsselungstechnik. Der erste kommerzielle Quantencomputer – der IBM Q System One – ist bereits 2019 auf den Markt gekommen. Der chinesische Quantencomputer Jiuzhang soll sogar zehn Milliarden Mal so schnell sein wie Googles 2019 vorgestellter Quantencomputer Sycamore. Trotz allem befinden sich die Quantencomputer noch in einem Anfangsstadium.

Die Optimierung von Lieferketten bzw. Prozessen entlang der Lieferkette in Echtzeit ist eines der Haupteinsatzgebiete der neuen Technologie. Dazu gehört z. B. die Berechnung von optimalen Lieferrouten in Echtzeit. VW nutzt Quantencomputer bereits, um intelligente Verkehrsnetzsysteme zu entwickeln. Weiterhin können sie genutzt werden, um kombinatorische Optimierungsprobleme (Behälterproblem) z. B. beim Verladen von Millionen von Paketen in Lkw und Flugzeuge zu lösen. Zudem sollen bessere Produkte durch Rapid Modeling and Testing entwickelt werden.

Quantencomputer stellen allerdings ein (erwartetes) großes Problem ab 2022 für die klassische Datenverschlüsselung dar. Durch ihre extreme Rechenleistung sind diese Verschlüsselungsmethoden leicht zu knacken. Neue  Verschlüsselungsmethoden wie gitterbasierte Kryptographie müssen also her. Auch in der Welt der blockchainbasierten Kryptowährungen stellt die Quantentechnologie ein großes Problem für Private Keys dar, die damit leicht zu knacken sind. Toshiba hat darauf bereits reagiert und will ab 2025 kryptographische Quantencomputerdienste anbieten.

Next Generation Security schützt Produkte und Daten.
Gerade Endgeräte wie Tablets, Smartphones und PC stellen ein hohes Sicherheitsrisiko für IT-Netzwerke und die Supply Chain dar. Hier existiert eine bunte Spielwiese für Cyberkriminelle, die Unternehmen schaden wollen. Bei der sog. Next-generation endpoint protection wird Künstliche Intelligenz, Maschine Lernen und die Analyse des Nutzerverhaltens zur Erkennung von immer ausgefeilteren Bedrohungen genutzt. Prävention ist die erste Verteidigungslinie, um Cyberattacken zu vereiteln. Dabei müssen nicht nur alle Endgeräte geschützt werden, sondern die Lösung muss auch flexibel und skalierbar in der Cloud (oder auf Wunsch auch im eigenen Rechenzentrum) sein. Das IT-System muss mit modernsten Gefährdungsindizien und Verhaltensindikatoren Daten, Dateien und die Kommunikation permanent überwachen. Die klassische Prävention muss mit analytischen Überwachungs- und Erkennungs-Tools kombiniert werden. Der Schutz besonders der Kunden- und Mitarbeiterdaten hat oberste Priorität

Auf der physischen Ebene werden z. B. für die Überwachung von Containern intelligente Schlösser (Smart Locks) und Siegel eingesetzt. Dabei können Daten mit RFID-Transpondern gesendet werden und mittels Blockchain verschlüsselt und via Smart Contracts verifiziert werden. Für die Bekämpfung der Fälschung von Produkten wird ebenfalls die Blockchain-Technologie eingesetzt. Dazu werden Daten des Produkt-Lebenszyklus auf der fälschungssicheren Blockchain gespeichert, die von Seiten der Kunden beispielsweise durch Scannen eines 3D-Barcodes ausgelesen werden können.

Optimierung von Produkten durch 3D-Printing und Rapid Prototyping.
Der 3D-Druck (Additive Fertigung) kann für die schnelle Herstellung von Prototypen genutzt werden. Material wird Schicht für Schicht aufgetragen und so ein dreidimensionaler Gegenstand (Werkstück) erzeugt. Dabei erfolgt der schichtweise Aufbau computergesteuert aus einem oder mehreren flüssigen oder festen Werkstoffen nach vorgegebenen Maßen und Formen. Beim Aufbau finden physikalische oder chemische Härtungs- oder Schmelzprozesse statt. Typische Werkstoffe für das 3D-Drucken sind Kunststoffe, Kunstharze, Keramiken und Metalle. Die eigentlichen Daten für das 3D-Modell stammen aus einem Computer Aided Design (CAD)-System.

Durch Rapid Prototyping kann ein Unternehmen schon in der Planungsphase relativ einfach ein Probe-Modell bauen. Somit werden bereits frühzeitig Fehler oder Schwächen erkannt und behoben, bevor innerhalb des eigentlichen Produktionsprozesses durch nicht entdeckte Fehler hohe Kosten anfallen würden. Die 3D-Druck-Technologie wird sich nicht nur sehr wahrscheinlich zur Standardtechnologie für die Serienproduktion entwickeln, sondern auch das Ausdrucken von einzelnen Bauteilen bzw. Artikeln vor Ort in einem Geschäft, Lieferwagen oder sogar beim Kunden zuhause ermöglichen. Artikel und Teile müssten so nicht mehr geliefert werden, sondern ein digitaler CAD-Bauplan und ein 3D-Drucker würden zur Herstellung genügen.

Der neue Technologie-Trend wird Transport-Wege verkürzen, die Geschwindigkeit der Supply Chain erhöhen und auch die Lagerhaltungskosten in Zukunft enorm senken. Kunden könnten natürlich auch ihre eigenen CAD-Entwürfe auf eine Internet-Plattform beim Fertigungs-Unternehmen hochladen, Materialien und Farben auswählen, Preise aufrufen, den Druck bestellen und ausliefern lassen.

Selbstfahrende Fahrzeuge erhöhen Efizienz und vermeiden Fehler.
Fahrerlose Transportsysteme (FTS) revolutionieren die Intralogistik und gelten als guter Einstieg in Industrie 4.0. Mittels FTS lässt sich die Zahl von Leer- und Falschfahrten massiv reduzieren, weil die Fahrzeuge automatisch zum richtigen Lagerregal fahren. Dabei orientieren sie sich an verschiedenen Technologien, wie beispielsweise Indikationsstreifen, Präzisionslasern, Reflektoren oder einfachen Klebebandspuren. Während die meisten intralogistischen Lager heute noch auf Flurförderfahrzeuge wie Stapler setzen, deren Fahrer auf Sicht und Zuruf fahren, folgen FTS einem automatisch programmierten Weg. Dazu lässt sich beispielsweise eine Sichtspur nutzen, der ein FTS auf seinem Weg folgen kann. Engpässe, Zusammenstöße oder sonstige Behinderung im Arbeitsablauf lassen sich damit fast gänzlich eliminieren.

Das macht die Intralogistik eines Unternehmens schneller und effizienter. Die Herausforderung liegt dabei allein in der Schaffung einer offenen Infrastruktur. In der Transportlogistik können u. a. autonome Fahrzeuge und Drohnen bei der Paketzustellung eingesetzt werden.

Digitaler Zwilling für die Simulation.
Beispielsweise kann eine gesamte Fabrik mit ihren Maschinen, Komponenten, Gebäuden, Robotern, Fahrerlosen Transportsystemen, Prozessen und den zu erzeugenden Produkten parallel zur physischen Ausprägung auch digital erstellt werden. Dabei kann der digitale Zwilling auch schon vor dem realen Zwilling existieren, z. B. als Designmodell künftiger Produkte. Natürlich können auch logistische Objekte und Prozesse abgebildet werden. Ein digitaler Zwilling bietet viele Vorteile. Es lassen sich pysikalische Prototypen einsparen und das Verhalten, die Funktionalität und Qualität von einzelnen realen Komponenten als auch von ganzen Lieferketten kann simuliert werden. Zudem können sie dazu dienen, Daten aus dem Einsatz der realen Zwillinge zu analysieren und auszuwerten. Die digitalen Modelle führen zu neuen servicebasierten Geschäftsmodellen: Fernwartung, Fernmanagement und -überwachung von logistischen Einrichtungen, voraussagendes Modellieren und Simulation sowie logistische Servicemodelle für den Aftermarket. (DR)

Quelle: LOGISTIK express Ausgabe 2/2021

Rennen um die Vormachtstellung bei KI Übernimmt China die Führung?

China will bis 2030 im Bereich Künstliche Intelligenz führend werden. Gründe dafür sind wirtschaftliche und nationale Sicherheitsinteressen. Aufgrund der (noch) geringen Löhne hat das Land riesige Vorteile gegenüber Wettbewerbern wie den USA. Bereits jetzt stellt der Export von KI-Überwachungstechnologie eine Herausforderung dar.

Redaktion: Dirk Ruppik.

Bereits in 2017 hat der chinesische Staatsrat den „Next Generation Artificial Intelligence Development Plan“ veröffentlicht. Er skizziert den Weg Chinas zum ersten globalen Innovationszentrum für Künstliche Intelligenz (KI) in 2030. Die KI-Kernindustrie soll dann laut dem amerikanischen Time Magazin einen Wert von 148 Milliarden US-Dollar erreichen, zugehörige Industriebereiche den zehnfachen Wert. Der russische Präsident Vladimir Putin sagte im gleichen Jahr: „Wer auch immer der Technologieführer in diesem Bereich wird, wird die Welt regieren.“

Der Direktor des „Digital and Cyberspace Policy Program“ beim Rat für ausländische Beziehungen in New York nennt die bedeutenden wirtschaftlichen und nationalen Sicherheitsinteressen als Gründe für die extreme Motivation Chinas Technologieführer in KI zu werden. „Der Nahe Osten besitzt enorm viel Öl, China dagegen kann das globale Zentrum für KI-Daten werden“, sagte Sheng Hua, Geschäftsführer der Mengdong Technology Ltd., der für Firmen wie Baidu, JD.com und Alibaba arbeitet.

Gemäß dem Unternehmen hat China aufgrund der geringen Löhne riesige Vorteile gegenüber Wettbewerbern wie den USA. Das Land besitzt bereits seit 2018 eine Schule für KI, die von der „University of the Chinese Academy of Sciences (UCAS)“ ins Leben gerufen wurde. Auch KI-Lehrbücher für Schüler werden bereits in Schulen ausgehändigt. Im Wissenschafts- und Technologiepark Bainiaohe Digital Town 50 km von der Hauptstadt von Guizhou Guiyang arbeiten unablässig hunderte Berufsschul-Studenten, um Fotos zu kennzeichnen und Sprache zu analysieren. Die generierten Daten werden dann für Projekte im Bereich Gesichts- und Spracherkennung sowie autonomen Fahren genutzt. Auch Mengdong ist in der digitalen Stadt beheimatet. Im berg- und wasserkraftreichen Guiyang befinden sich die Datenzentren und -server der drei größten Telekomunternehmen sowie Foxconn und Apple.

Strategie: Next Generation Artificial Intelligence Development Plan.
Im „Next Generation Artificial Intelligence Development Plan“ werden auch die Herausforderungen bei der Entwicklung von KI genannt: „Die Unsicherheiten bei der Entwicklung von KI bringen neue Herausforderungen. KI ist eine umwälzende Technologie, die die Regierungsgeschäfte, wirtschaftliche Sicherheit sowie soziale Stabilität und selbst die Weltordnungspolitik beeinflussen kann. Dies kann zu Problemen bei der Veränderung der Beschäftigungsstruktur führen, die Gesetzgebung und Sozialethik beeinflussen, die Privatsphäre verletzen und die internationalen Beziehungen herausfordern. Während wir energisch KI entwickeln, müssen wir großen Wert auf die Vermeidung von möglichen Sicherheitsrisiken legen, die Vorsorge verstärken, die Risiken minimieren und die sichere, verlässliche und kontrollierte Entwicklung der Technologie gewährleisten.“

Die Regierung des Landes der Mitte erwartet, dass Unternehmen und Forschungseinrichtungen bereits in 2020 auf dem gleichen Niveau wie führenden KI-Länder – namentlich die USA – sein wird. Schon fünf Jahre später sollen große Durchbrüche bei ausgewählten KI-Technologien erreicht werden. Diese sollen den Antrieb für die wirtschaftliche Transformation liefern. Im Finalstadium in 2030 will China das weltweit führende KI-Innovationszentrum sein, wodurch die eigene Rolle als wirtschaftliche Großmacht gestärkt werden soll. Im „Three-Year Action Plan for Promoting Development of a New Generation Artificial Intelligence Industry (2018–2020)“ werden laut New America (Washington) die Maßnahmen in diesem Zeitraum genauer beschrieben. Zunächst soll die Entwicklung intelligenter Produkte wie vernetzte Fahrzeuge, intelligente Service-Roboter und Videobild-Erkennungssysteme vorangetrieben werden. Bei den „Kerngrundlagen“ sollen technologische Durchbrüche im Bereich Netzwerk-Chips, intelligente Fertigung und 5G-Internet erreicht werden. Der gesamte Bereich wird durch das Ministry of Industry and Information Technology (MIIT) beaufsichtigt. Der Plan fokussiert im Kern auf die tiefgehende Integration von IT und Fertigungstechnologie in Verbindung mit neuartiger KI-Technik, um China schnell in einer Großmacht im Bereich Fertigung und Internet zu transformieren.

Muss die Welt Chinas KI-Dominanz fürchten?
Tom Mitchell, Professor für Computer Science an der Carnegie Mellon University, meint, dass die USA zwar mehr Erfahrung beim Aufbau von Technologieunternehmen hat, doch China bei KI-Anwendungen, die auf Big Data basieren, vorne liegt. Wenn das Land z. B. entscheidet, landesweite medizinische Daten zu erheben, dann wird das umgehend durchgeführt. In den USA und anderen Ländern entstehen sofort Bedenken über die Privatsphäre.

Die Trump-Regierung hat laut BBC News als Antwort auf „unfaire Methoden“, Tarife auf chinesische Produkte im Wert von mehreren Milliarden US-Dollar erhoben. Darauf sind die chinesischen Investitionen in den USA in 2018 auf das niedrigste Niveau seit 2011 gefallen und betrugen nur 4,8 Milliarden US-Dollar (4,3 Milliarden Euro). Währenddessen sank das US-Investment in China um eine Milliarde auf 13 Milliarden US-Dollar (11,7 Milliarden Euro). Hochkarätige chinesische Unternehmen wie das Versicherungsunternehmen Anbang und die Kai-Fu Lee’s Sinovation Ventures haben ihre US-Dependancen verkleinert.

Huawei und ZTE verzeichneten aufgrund des US-Banns große Verluste. Sowohl amerikanische Universitäten als auch Unternehmen sind vorsichtiger geworden und überdenken ihre Beziehungen zu China. Prof. Mitchell denkt, dass Entscheidungsträger zwischen AI-Applikationen unterscheiden müssen, die einen gegenseitigen Gewinn darstellen, und Anwendungen, die wirklich konfliktbelastet sind, wie z. B. im Militärbereich. Der US-Beamte Dr. Christopher Ashley Ford, Assistant Secretary Bureau of International Security and Nonproliferation, hält die chinesischen Technologie-Unternehmen faktisch für Instrumente der Kommunistischen Partei. Diese sind mittlerweile tief in das Pekinger System der Unterdrückung im Lande verstrickt und entwickeln zunehmend weltweite aggressive strategische Ambitionen.

Export von KI-Überwachungstechnologie.
Ende Dezember berichtete die Nikkei Asian Review, dass chinesische Unternehmen laut eines Berichts der „Carnegie Endowment for International Peace“ intelligente Überwachungstechnologie in über 60 Länder exportiert haben – darunter der Iran, Myanmar, Venezuela, Zimbabwe und andere Länder mit schlechten Menschenrechtsbilanzen. Im Carnegie-Bericht wird das Land der Mitte als weltweiter Treiber für „autoritäre Technologie“ bezeichnet. Autoritäre Regime könnten die Technologie nutzen, um ihre Macht auszuweiten und auch Daten ins Land zurückzusenden. Firmen wie Huawei, Hikvision, Dahua und ZTE lieferten die Überwachungstechnologie in 63 Länder. 36 dieser Länder sind Teil des chinesischen „One Belt, One Road (OBOR)“-Projekts.

Huawei Technologies Co., eines der führenden Unternehmen beim 5G-Internet, ist für den Export von KI-Überwachungstechnologie in mindestens 50 Länder verantwortlich. Dennoch sind auch andere Länder wie Japan am Export dieser Technologie beteiligt, so z. B. Japans NEC Corp.. Das Unternehmen lieferte die Überwachungstechnologie in 14 Länder, die amerikanische IBM Corp. in elf Länder. Frankreich, Deutschland und Israel spielen ebenso eine große Rolle in der Ausbreitung dieser Technologie. (DR)

Anmerkung: AI (Abkürzung für “Artificial Intelligence”) ist das englische Wort für das deutsche Wort KI (= “künstliche Intelligenz”).

Quelle: LOGISTIK express Journal 2/2020

Supply-Chains im Stress-Test

Supply-Chain-Transparenz ist wichtig, reicht aber in der heutigen Zeit nicht mehr. Wer auf Supply-Chain-Störungen nur reagiert, hat ein Problem. Vorbeugendes Handeln ist notwendig.

Beitrag: Thomas Kofler.

Der sich rasch verbreitende Coronavirus gefährdet Lieferketten und ganze Supply-Chain-Ökosysteme, führt zu kostenträchtigen Produktionsunterbrüchen und Lieferengpässen in zahlreichen Branchen – von Automotive, Elektronik bis Pharma und Textil. Dabei sind Lieferkettenstörungen – Menschen gemachte wie auch Naturereignisse – kein neues Phänomen. Das Supply Chain Management (SCM) gehört zu den komplexesten Aufgaben in Unternehmen.

Globale Lieferquellen, Einbindung unterschiedlichster Partner, ob Produktionsstandorte, Lieferanten, Lagerhalter, Spediteure, Transporteure, Zollbehörden, Distributoren, unzählige physische und digitale Schnittstellen – es gibt so viele Faktoren, die den Überblick über Supply-Chain-Ökosystem und den Durchblick erschweren. Und die Anforderungen an das SCM steigen stetig weiter. Die Unternehmen müssen immer schneller auf Nachfrageveränderungen reagieren beziehungsweise diese immer besser vorausschauend einschätzen können.

Aufgrund des „Amazon-Effekts“ (günstig und schnell per Mausklick bestellt und morgen geliefert) stehen viele Konzerne unter starkem Wettbewerbsdruck. Der Verbraucher erwartet ein vollendetes, störungsfreies Kundenerlebnis mit einer Echtzeitverfolgung seiner Bestellungen bis zur punktgenauen Lieferung. Dieser Anspruch hat sich inzwischen auch aufs B2B-Geschäft übertragen. Geschwindigkeit, Transparenz und Qualität sind der Schlüssel zum Erfolg.

Systemvielfalt kontra Transparenz.
Seit Jahrzehnten kämpfen Supply Chain Manager für mehr Prozesstransparenz – vom Rohstofflieferanten bis zum Endkunden -, um agiler und nachhaltiger auf Lieferkettenstörungen reagieren zu können. Viele Hoffnungen verknüpften sich mit der Digitalisierung.  Eine Vielzahl an Softwarelösungen ist heute bei Versendern, Spediteuren und Transporteuren im Einsatz: Global-Trade-Management (GTM), Transport-Management- (TMS), Warehouse-Management- (WMS), Enterprise-Ressource-Planning- (ERP) oder Carrier-Dispatch-Systeme, um nur einige zu nennen. Aber alle sind Insellösungen. Auch die von Maersk und IBM gegründete Shipping-Information-Pipeline auf Basis von Blockchain-Technologie.

Immer noch werden viele Informationen manuell, per E-Mail, Fax oder Telefon entlang der Lieferkette ausgetauscht. Der Grund: Zwischen den o.g. Systemen besteht wenig oder keine Interoperabilität. Dies verhindert, dass alle Beteiligten eine ganzheitliche Sicht auf ihre Lieferungen haben. Dadurch ist weder ein schnelles Erkennen noch eine proaktive Kommunikation von Lieferproblemen möglich. Insbesondere, wenn die Probleme bei Tier 2- oder Tier 3-Lieferanten ihren Ursprung haben.

Hinzu kommt, dass sich der Informationsbedarf und die Interpretation einzelner Dateninhalte je nach Supply-Chain-Partner erheblich unterscheidet. Grosse Vielfalt herrscht auch bei Datenstandards, Datenumfang und angewandter Semantik bei der SCM-Software, die sich bei den verschiedenen Parteien im Einsatz befindet. Zudem ist nicht jeder Partner in der Supply Chain bereit oder in der Lage, seine Daten an alle weiterzugeben – wegen unterschiedlicher ERP-Systeme oder eventuell aus Angst, die Daten werden nicht vertraulich behandelt.

Mangelnde Datenqualität.
Eine weitere Schwachstelle sind die riesigen Datenmengen, die durch die Lieferkette fliessen, und die Qualität dieser Daten. Wenn die Verschiffungsdaten- oder Ankunftszeiten (ETA) nicht stimmen oder Transportverzögerungen zu spät vom Transporteur übermittelt werden, können Ausliefertermine beim Endkunden nicht eingehalten werden. Zusätzlich fallen eventuell noch Demurrage, Detention und Storage Charges an. Und die Unternehmen müssen Pufferwarenbestände vorhalten, um eine 100%-ige Lieferfähigkeit sicherzustellen. Die meisten Softwarelösungen basieren auf statischen Rechenmodellen, in die beispielsweise nur die offiziellen Daten des Transporteurs oder Spediteurs einfliessen. Sind diese Daten nicht à jour, entsteht ein falsches Bild. Nur selten hat der Supply Chain Manager einen wirklichen Überblick über die IST-Situation und noch seltener kann er in die Zukunft schauen. Volle Supply-Chain-Transparenz („Visibility“) bleibt so Utopie.

Predictive Supply Chain Visibility.
Nur wenige Software-Anbieter sind in der Lage, die für den Verlader interessanten Daten dynamisch aus verschiedenen Quellen zu schöpfen (Reeder plus Satellitenmeldungen etc.), zu überprüfen, korrigieren, auszuwerten und bereinigt in die Modellrechnung einzuspeisen. Sie haben erkannt, dass die Datenqualität entscheidend für Transparenz und zukunftsorientierte Aussagen ist. Sie setzen auf eine „kontinuierliche“ Methodik und offene Plattform-Technologielösungen unter Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML). In einem solchen selbst lernenden System werden Daten auch extrapoliert. Dadurch können Supply-Chain-Ökosysteme nicht nur in Echtzeit abgebildet, sondern auch mit grosser Präzision Vorhersagen für vorher definierte Ereignisse erstellt (Predictive Supply Chain Visibility) und die Lieferfähigkeit optimiert werden (Continuous Delivery Experience).

Continuous Delivery Experience.
Grosse Kunden in Industrie und Handel erwarten heute von ihrem digitalen Supply Chain Management, eine punktgenaue Lieferung der bestellten Produkte, eine Amazon-ähnliche Lieferfähigkeit und Kundenerfahrung – auch im B2B-Geschäft. Bei Lieferstörungen aus was immer für Gründen erwarten sie eine vorausschauende, schnelle Problembewältigung. Unternehmen wie Lenzing Gruppe, Georgia-Pacific und Koch Industries setzen daher auf innovative, offene Plattform-Technologielösungen, die Lieferketten digital so abbilden, dass eine hohe Kundenzufriedenheit auch im B2B-Geschäft erreicht wird. Für erfolgreiche Firmen steht der Kunde und das Kauferlebnis ganz am Anfang der Prozesskette und diese wird in entgegengesetzter Richtung organisiert wie im Traditionsunternehmen.

Ausblick.
Seit Anfang des Jahres erweist sich die Corona Virus-Epidemie als Stresstest für Lieferketten von/nach China. Die negativen Auswirkungen auf internationale Lieferketten-Ökosysteme, Produktionen und Kundenangebote zeigen sich bereits heute und werden noch zunehmen. Luft- und Seefrachtkrachtkapazitäten werden knapp. Die Frachtkosten steigen. Die Corona Virus-Epidemie fällt unter höhere Gewalt. Zusatzkosten, vor allem im Seeschiffsverkehr anfallende so genannte Detention-, Demurrage- und Storage-Charges, können vom Spediteur dem Verlader weiterberechnet werden.

Die Corona Virus-Epidemie ist auch ein Stresstest für Supply Chain Manager, die schnell und pro-aktiv auf die absehbaren Supply-Chain-Störungen reagieren müssen, um die Lieferfähigkeit des Unternehmens zu erhalten und genügend Waren für den Abverkauf zur rechten Zeit am richtigen Ort zur Verfügung zu haben. Nur eine hohe Datenqualität garantiert wirkliche Transparenz in der Lieferkette und macht zuverlässige Aussagen über Produktlieferungen möglich. Ein positives Kauferlebnis wiederum schafft Kundenbindung. (TK)

Quelle: LOGISTIK express Journal 2/2020