Artikel teilen:

Eine Übersicht der KI Trends 2019

  1. KI Forschung & Innovation…
  2. …versa Praxistauglichkeit
  3. Budgets im Aufwind
  4. KI / ML Spezialisten
  5. Daten sind das neue Öl
  6. Industrialisierung – Machine Learning DevOps
  7. Architekturen, Open Source und Ökosystem
  8. KI / ML Infrastruktur
  9. Ergonomie, Transparenz, Erklärbarkeit

Künstliche Intelligenz (KI) und sein Teilgebiet Machine Learning (ML) durchdringen weiter vehement alle Lebens- und Arbeitsbereiche. Nach den Themen des ersten (1. bis 3.) und zweiten Teils (4. bis 6.) spüren wir nun in diesem dritten Teil weiter den aus unserer Sicht wesentlichen KI Trends (7. bis 9.) nach. 

Wir freuen uns über einen persönlichen Austausch hierzu.

Faktor 7: Architekturen, Open Source und Ökosystem                                                            

KI / ML Anwendungen können vollständig mit leistungsfähiger Open Source Software realisiert werden. Auch die großen Digitalkonzerne und Initiativen wie Open AI stellen ihre Werkzeuge zumindest teilweise offen zur Verfügung.

Die Herausforderung wird auf Sicht eher darin liegen, einen aktuellen Überblick zu behalten und für die eigenen Anforderungen die besten Werkzeuge zu evaluieren. Als hilfreich werden sich hoffentlich Austauschformate für Modelle erweisen (z.B. ONNX), wobei dies bei sehr spezifischen und optimierten Implementierungen seine Grenzen findet.

Nach wie vor finden sich KI / ML und verwandte Frameworks – gemessen an Weiterentwicklung und Größe der Community – schwerpunktmäßig in der Python Welt. Im Bereich Big Data und Stream Processing bewegen sich die entsprechenden Apache Open Source Projekte (z.B. Spark, Flink, Kafka, Cassandra) in der Java / Scala Welt. (Vergleiche: Comparison of top data science libraries for Python, R and Scala)

Wir sehen derzeit die dringendste Aufgabe darin, diese Hemispheren möglichst nahtlos und unter Nutzung ihrer jeweiligen Stärken miteinander zu integrieren – zum Beispiel für die (nahe) Echtzeit Verarbeitung großer Datenmengen und die Parallelisierung von Optimierung / Training sowie Vorhersagen auf Basis unterschiedlicher Modell Klassen. „Nebenbei“ erfordert dies auch entsprechende Weiterbildung der Data Science Teams.

Faktor 8: Bessere und spezielle KI / ML Infrastruktur 

– „…since 2012, the total amount of compute used in the largest AI training runs […] has grown by more than 300.000x…” (AI and Compute, Open AI, 05/2018)

Durch massiv wachsende, integrierte und automatisierte „Machine Learning as a Service“ Angebote erleichtern die großen Cloud Anbieter (Amazon, Google, Microsoft, IBM) die Realisierung von Anwendungen (mehr Details hier: MLaaS). Dabei können sowohl fertig Plug-and-Play Services genutzt als auch individuelle Konfigurationen nach Bedarf (siehe ML DevOps) schnell herauf- und heruntergefahren werden.

Gerade in Proof of Concept- oder Pilot-Phasen vermeidet dies langes Warten auf interne Infrastruktur, sofern Vorbehalte und rechtliche Bedenken nicht im Wege stehen. Hohe Automation, Controlling und kluge Taktiken helfen dabei, die Kosten nicht ausarten zu lassen, was leicht passiert, wenn ein Data Science Team erst einmal skalierbare Ressourcen zur Verfügung hat. Bei einer entsprechend hohen Anzahl von Projekten oder sehr trainingsintensiven Anwendungen kann eine dedizierte Machine Learning Infrastruktur oder ein hybrider Ansatz die bessere Variante darstellen.

Parallel nimmt das Rennen um bessere KI / ML Hardware immer mehr an Fahrt auf. Nachdem bisher in der breiten Masse immer noch CPUs und GPUs die Arbeitspferde der Wahl sind, scheinen FPGAs, ASICs (z.B. Googles TPUs) am Bedeutung zu gewinnen (Machine Learning Shifts More Work To FPGAs, SoCs). An der vordersten Innovationsfront hat zumindest die Medienpräsenz von Neuromorphen und Quanten Computern zugenommen und es sind erste nutzbare Prototyping Plattformen entstanden (18 Most Interesting Facts About Quantum Computers | 2019 Edition).

Faktor 9: Ergonomie, Transparenz, Erklärbarkeit

Die Schaffung von Akzeptanz für die Vorhersagen und Empfehlungen von KI / ML Modellen ist kein neues Thema, hat aber durch die Ausweitung der Anwendungen, insbesondere in sensiblere Bereiche wie medizinische Diagnostik, autonomes Fahren oder industrielle Steuerung an Bedeutung gewonnen.

Verbindung zu aktuellen Forschungsthemen: „Explainable AI“ oder auch „Transparent AI“ werden daher ebenso zu den zentralen Themen gehören, wobei es verschiedenste Lösungsansätze von der einfachen Ermittlung der Wichtigkeit von Features für Modelle, für einzelne Vorhersagen bis zur Verknüpfung neuronaler und (ggf. leichter interpretierbarer) symbolischer KI. (Diverse Quellen: 123)

Wollen Sie herausfinden, wie Sie mit Hilfe von Künstlicher Intelligenz und von Machine Learning Ihr Unternehmen anpassungsfähiger und produktiver gestalten können? Dann nehmen Sie gerne kontakt auf unter: aarora@agile-im.de

Arvin Arora

Geschäftsführer, AIM

Diese Artikel könnten Sie auch interessieren:

Was macht ein Testmanager?
Jan 03, 2024

Der Job eines Testmanagers bei AIM

Testmanagement und Testautomation sind aus dem Qualitätsmanagement nicht mehr wegzudenken. Doch was macht eigentlich ...
Consent Management Platform von Real Cookie Banner