Die künstliche „künstliche Intelligenz“-Blase und die Zukunft der Cybersicherheit

Ich denke, dass durch den aktuellen Artikel in der New York Times zum Boom der ‚künstlichen Intelligenz‘ in Silicon Valley viele Leute stark über die Zukunft der Cybersicherheit nachgedacht haben – die nahe und ferne Zukunft.

Ich schätze, dass über Fragen, wie die folgenden, nachgedacht werden muss:

  • Wo ist die wahnsinnige Furcht vor ‚AI‘, die heute nur in der Fantasie von Zukunftsforschern existiert?
  • Wie viele Milliarden werden Investoren noch in Unternehmen stecken, die im besten Fall das „erfinden“, was schon vor Jahrzehnten erfunden wurde – und das sich im Endeffekt im schlechtesten Fall als nicht mehr als aufgeplustertes Marketing herausstellt… Dummys?
  • Was sind die wirklichen Möglichkeiten für die Entwicklung von intelligenter Maschinensicherheitstechnologien?
  • Und welche Rolle werden die Menschen Experten in dieser schönen neuen Welt haben?

MANCHMAL, WENN ICH IM DORF MIT A.I.-eNTHUSIASTEN ABHÄNGE, FÜHLE ICH MICH WIE EIN ATHEIST AUF EINER EVANGELIKALEN-TAGUNG.

Jerry Kaplan, Computerwissenschaftler, Autor, Zukunftsforscher und Multiunternehmer (Mitbegründer von Symantec)

Was gerade im Bereich der „AI“ geschieht, ähnelt einer Seifenblase. Und wir alle wissen, was eventuell mit Seifenblasen passiert, wenn sie von den Zirkusclowns weiter aufgeblasen werden (kein Wortspiel!): sie zerplatzen.

Nun, ohne kühne Schritte und riskante Investitionen kann eine fantastische Zukunft niemals wahr werden. Aber das Problem heute ist, dass mit dieser Welle von weit verbreitetem Enthusiasmus für „AI“ (denken Sie daran, dass AI heute nicht existiert; daher die Anführungsstriche), Start-up-Mantelgesellschaften aufgetaucht sind.

Ein paar Start-ups? Was ist schon dabei, werden Sie sich fragen.

Die Sache ist, dass diese Mantel-Start-ups nicht Millionen, sondern Milliarden Dollar Investition anziehen – durch Reiten der neuen Welle der Euphorie, die ‚AI‘ maschinelles Lernen umgibt. Maschinelles Lernen gibt es schon seit Jahrzehnten: es wurde zuerst 1959 bezeichnet, ging weiter in den 70ern, blühte in den 90ern auf und blüht noch immer! Und zum heutigen Zeitpunkt wurde diese „neue“ Technologie in „künstliche Intelligenz“ umbenannt; es passt sich an die moderne Wissenschaft an; es erhält den schönsten Hochglanzprospekt; es bekommt die glamourösesten und anspruchsvollsten Marketingkampagnen. Und all das richtet sich an die allgegenwärtige, menschliche Schwäche, an Wunder zu glauben – und an Verschwörungstheorien über die genannten „traditionellen“ Technologien. Und leider ist die Cybersicherheit dieser „AI“-Blase nicht entkommen…

artificial-intelligence

Hier bei der Cybersicherheit werden neue „revolutionäre“ Produkte entwickelt, die „wie durch Magie“ mindestens alle Sicherheitsprobleme lösen und alles und jeden vor jeder einzelnen Cyberbedrohung auf einen Schlag schützen: Die Mantel-Startups schrecken vor nicht zurück, um Informationen so zu präsentieren, dass die öffentliche Meinung manipuliert und weit verbreitetes Unverständnis zur realen Situation weitergegeben wird.

In der Zwischenzeit ist tatsächlich unter der Haube dieser „revolutionären“ Produkte keinerlei „neuste Technologie“. Stattdessen wird Technologie benutzt, die, sagen wir mal, aus der Zeit der Dampfmaschine stammt! Aber hey, wen interessiert es? Und wer wird jemandem erlauben, einen genaueren Blick darauf zu werfen? Mehr zu dieser vor Blicken verborgenen Situation finden Sie hier.

Einige dieser Start-ups haben es so weit wie eine IPO geschafft. Bei einigen der ursprünglichen Wagniskapitalgebern wird das auch der Fall sein – wenn sie schnell weiterverkaufen; denn auf längere Sicht handelt es sich durch und durch um einen gründlich enttäuschenden Aktienmarkt. Für ein defizitäres Unternehmen, das BS-Marketing zugrunde liegt, macht es sich nicht bezahlt, und der starke Rückgang des Aktienkurses nach dem Höhepunkt ist unaufhaltsam. In der Zwischenzeit muss die weiterlaufende, glänzende Marketing-Maschine weiter bezahlt werden – sie ist nicht gerade günstig.

Lassen Sie uns hier erstmal abspeichern.

Nicht ein signifikantes ‚AI‘-Cybersicherheitsunternehmen hat bis jetzt Profi gemacht

Risikokapital nennt sich „Risiko“, da es riskant ist. Ein guter Risikokapitalgeber ist jemand, der weiß, wo am besten Fonds angelegt werden müssen – und wie viele – damit in n Jahren ein großer Gewinn erzielt wird. Jedoch gibt es eine Nuance, wenn es zu „AI“ kommt: Nicht ein signifikantes ‚AI‘-Cybersicherheitsunternehmen hat bis jetzt Profi gemacht! Em, nun, warum sollte ein Risikokapitalgeber in AI-Unternehmen investieren? Gute Frage.

Das Hauptziel des Geschäftsmodells für die meisten Silicon Valley-Start-ups (nicht alle; es gibt ein paar glückliche Ausnahmen) ist nicht ernsthaft und kostspielig zu forschen und neue Produkte/Technologien zu entwickeln, die sich gut verkaufen lassen. Stattdessen wollen sie Seifenblasen erzeugen; Investoren anziehen, schnell mit einem Aktienkurs zu verkaufen, der auf der „Bewertung von zukünftigem Gewinn“ basiert und dann… nun, wird der Dreck (erlittene massive Verluste) das Problem eines anderen sein. Aber warten Sie. Es kommt noch besser: Einnahmen BEHINDERN tatsächlich solch ein Modell!

ES GEHT NICHT DARUM, WIE VIEL MAN VERDIENT. ES GEHT DARUM, WAS SIE WERT SIND. UND WER IST AM MEISTEN WERT? UNTERNEHEMN, DIE GELD VERLIEREN.

Silicon Valley, 2014

Hier ist ein typisches Geschäftsmodell, das von dem glatten Medientypen in der TV-Serie Silicon Valley auf 75 Sekunden komprimiert wird (obwohl sie unmöglich und lustig ist, basiert sie auf der Realität!):

 

AI-Seifenblasen erinnern etwas an die Immobilienblase in den USA im Jahr 2008, die zügig die Weltwirtschaftskrise auslöste. Die Pyramide von Investitionsnebenprodukten, die auf dem Subprime-Hypothekenmarkt basierten, kam vielen gelegen: Für Millionen lief es gut. Und dann – boom: die Pyramide stürzte in sich zusammen, die Weltwirtschaft geriet ins Schwanken und die Löcher wurden mit Steuergeldern gestopft, um ein wirtschaftliches Armageddon zu vermeiden– natürlich Steuerzahler, die genau die Personen und Unternehmen waren, die überhaupt erst das Geld machten. Ohne den Betrug Skandal des Jahrzehnts zu erahnen? Dann schauen Sie sich den Film The Big Short an.

Als wenn diese Erinnerung nicht schlimm genug wäre, birgt die AI-Blase eine andere Gefahr – maschinelles Lernen in Verruf bringen: einer der vielversprechendsten Unterbereiche der Cybersicherheit.

Was ist daran so „gefährlich“? Nun, nur durch maschinelles Lernen ist die Menschheit nicht in einer gigantischen Datenmasse ertrunken, die sich in den letzten Jahrzehnten um ein Milliardenfaches vergrößert hat.

Z. B. hat sich die Anzahl der schädlichen Programme in 10 Jahren vertausendfacht: Zu Beginn des Jahrtausends wurden jeden Tag ~300 verschiedene Malwares analysiert; jetzt kann man dieser Zahl drei Nullen anhängen. Und um wie viel ist die Anzahl unserer Analysten gestiegen? Vier. Wie können wir also Schritt halten? Zwei Wörter: maschinelles Lernen.

AI-Blasen diskreditieren maschinelles Lernen – einer der vielversprechendsten Unterbereiche der Cybersicherheit.

Heutzutage werden 99,9% der Angriffe durch unsere automatisierten Systeme erkannt. Hört sich so an, als wenn unsere Analysten sich den Bauch kraulen würden, da sie kaum was zu tun haben?! Alles, aber das nicht. Sie konzentrieren sich darauf, diese Systeme zu verfeinern, damit sie effektiver werden, und neue zu entwerfen.

Wir haben z. B. Experten, die sich ausschließlich der Aufdeckung sehr komplexer Cyberangriffe widmen, die dann ihre Kenntnisse und Fähigkeiten an automatisierte Systeme weitergeben. Dann gibt es da noch Datenwissenschaftsexperten, die mit verschiedenen Modellen und Methoden von maschinellem Lernen experimentieren.

Im Gegensatz zu Mantel-Start-ups schützen wir User durch eine gigantische Cloud-Infrastruktur, die viel komplexere Aufgaben schnell und effektiv lösen kann. Und ja, darum wenden wir viele verschiedene Arten von maschinellem Lernen an.

Die einzigen Cyberangriffe, die wir manuell erforschen, sind die eigenartigsten und komplexesten Beispiele, die uns über den Weg laufen. Und obwohl fast alles von Maschinen übernommen wird, haben wir noch immer damit zu kämpfen, ausreichend spezialisierte Mitarbeiter zu finden. Und nicht nur das: Die Anzahl der spezifischen Anforderungen, die wir an potentielle KL-Analysten stellen müssen, werden sich immer in die Höhe schrauben.

Früher oder später wird der ‚künstliche Intelligenz wird die Welt retten‘-Zirkus sein Ende finden. Experten werden endlich die ‚AI‘-Produkte testen können, Kunden werden feststellen, dass sie abgezockt wurden und Investoren werden das Interesse verlieren. Aber wie wird sich maschinelles Lernen weiterentwickeln?

SILICON VALLEY HAT SCHON ZUVOR FALSCHE STARTS MIT AI GESEHEN. WÄHREND DEN 1980ERN GLAUBTE EINE FRÜHERE GENERATION VON UNTERNEHMERN AUCH, DASS KÜNSTLICHE INTELLIGENZ DIE WELLE DER ZUKUNFT SEIN WÜRDE UND ZU EINER GROSSEN ANZaHL VON START-UPS FÜHREN WÜRDE. IHRE PRODUKTE BOTEN ZU DIESER ZEIT NUR KLEINEN UNTERNEHMENSWERT UND SO ENDETE DER KOMMERZIELLE ENTUSIASMUS IN ENTTÄUSCHUNG, WAS ZU EINER PERIODE FÜHrTE, DIE ALs „AI-wINTER“ BEZEICHNET WIRD.

John Markoff, New York Times

Nachdem die AI-Blase platzt, werden alle ähnlichen Bereiche unvermeidlich darunter leiden. „Maschinelles Lernen? Neurale Netzwerke? Verhaltenserkennung? Kognitive Analyse? Ahh – Mehr Schlagwörter à la künstliche Intelligenz? Nein danke: davon möchte ich nichts wissen. Tatsächlich würde ich keins davon mit der Kneifzange anfassen!

Es wird noch schlimmer: Der Fluch der AI-Blase wird das Interesse an vielversprechenden Technologien für viele Jahre trüben, genauso wie in den 80ern.

Etablierte Anbieter werden weiter in intelligente Technologien investieren. Wir führten z. B.  Boosting und Technologien zu Entscheidungsbäumen ein, um komplexe gezielte Attacken aufzudecken und proaktiven Schutz gegen Bedrohungen der Zukunft (genau – Bedrohungen, die noch nicht existieren!)

Ein besonders versprechender Bereich der Entwicklung steigert die Komplexität des zusammenhängenden Bild der Vorgänge über alle Infrastrukturebenen und maschinelle Analysen der Datenlandschaft hinaus, um die komplexesten Cyberangriffe akkurat und verlässlich aufzuspüren. Wir haben diese Features bereits in unsere KATA Plattform integriert und möchten noch mehr entwickeln.

Der Fluch der AI-Blase wird das Interesse an vielversprechenden Technologien für viele Jahre trüben, genauso wie in den 80ern.

Aber wie wird es den ehrlichen Start-ups ergehen? Leider Gottes wird der Missbrauch des Begriffs AI die Entwicklung nur verzögern.

Jedoch wird der Fortschritt nicht stoppen: er wird fortfahren, nur langsamer.

Die Menschheit wird sich langsam aber sicher Richtung Automatisierung von allem auf Erden bewegen – bis hin zu den kleinsten und trivialsten Alltagsdingen. Und es wird nicht nur Automatisierung sein, sondern adaptive Interaktion zwischen Mensch und Maschine – aus hochentwickelten maschinellen Algorithmen erstellt. Wir sehen diese adaptive Interaktion bereits und die Geschwindigkeit, mit der sie sich in immer mehr unterschiedlichen Anwendungen verbreitet, ist manchmal furchteinflößend.

Der Cybersicherheitsbereich wird ebenfalls sich ständig erholende Automatisierung sehen.

Wir haben z. B bereits eine Lösung für eingebettete Sicherheit in „Smart Cities“-Paradigmen (einschließlich verschiedener roboterhafter Aspekte wie automatisierte Straßenverkehrleitung) zur Selbstkontrolle kritischer Infrastruktur. Und der Mangel an Experten wird akuter werden, nicht nur wegen der Verbreitung von Technologien, sondern wegen des stets wachsenden Anspruchs an persönliche Fähigkeiten. Maschinelle Lernsysteme für Cybersicherheit benötigt cyberklopedisches Wissen und spezifisch verfeinerte Fähigkeiten in vielen Bereichen (einschließlich Big Data, Computerverbrechensforensik und –Ermittlung, und Programmierung von Systemen und Anwendungen). All diese ausgedehnten und spezifischen Kenntnisse in einen Menschen zu bekommen, ist ein seltenes Kunststück: das mach aus ihnen sehr exklusive/hochklassige/wettbewerbsfähige Spezialisten. Und all diese ausgedehnten und spezifischen Kenntnisse zu lehren ist auch nicht einfach. Aber das muss sein, wenn wir wahre Entwicklung intelligenter Technologien sehen wollen. Es gibt keinen anderen Weg.

Also wer wird in dieser herausfordernden, neuen Welt der Zukunft die Verantwortung tragen? Wird die Menschheit noch immer die Roboter kontrollieren, oder werden die Roboter die Menschheit kontrollieren?

1999 bracht Raymond Kurzweil eine Theorie bezüglich symbiotischer Intelligenz vor (obwohl andere zuvor ähnliche Ideen hatten): die Verschmelzung von Mensch und Maschine – ein kybernetischer Organismus, der die menschliche Intelligenz und die gigantische Computerkraft von Supercumputern kombiniert („humachine intelligence„). Aber das ist keine Science-Fiction – es geschieht bereits. Und dessen fortgeschrittene Entwicklung ist meiner Meinung nach nicht nur der wahrscheinlichste, sondern auch der vorteilhafteste Weg für die Entwicklung der Menschheit.

Die Verschmelzung von Mensch und Maschine ist nicht nur der wahrscheinlichste, sondern auch der vorteilhafteste Weg für die Entwicklung der Menschheit.

Aber die Weiterentwicklung der Verschmelzung von Mensch und Maschine geht so weit, dass der Punkt einer technologischen Singularität erreicht wird? Wird der Mensch die Fähigkeit verlieren, das zu kontrollieren, was vorgeht, und die Maschinen eventuell und irreversibel die Kontrolle über die Welt übernehmen?

Die Schlüsselfunktion von purer maschineller AI ist die Fähigkeit, sich ständig zu verbessern und perfektionieren, ohne dass ein Eingreifen durch den Menschen erforderlich wäre – eine Fähigkeit, die immer mehr wachsen wird, bis sie den Rahmen der Algorithmen überschreitet. Anders gesagt, ist reine Maschinen-AI eine neue Form der Intelligenz. Und die fernen – aber theoretisch wahrscheinlichen – Tage des ‚Austritts aus dem Bereich der Algorithmen‘ wird das Signal für den Beginn des Endes der Welt sein, so, wie wir sie kennen. Zum Vorteil der Menschheit, durch das Robotergesetz, könnten Maschinen uns eines Tages vom mentalen Leid und der Bürde der Existenz befreien.

AI: EIN WAHRER DURCHBRUCH IM CYBERSICHERHEITS- ODER MARKETING HYPE? @E_KASPERSKY LÄSST DIE AI-BLASE PLATZEN UND LOBT MASCHINELLES LERNEN #AI_OIL TWEET

Oder… vielleicht wird ein Programmierer – wie immer häufig – ein paar Bugs im Code lassen? Warten wir es ab…

ai_oil

Kommentare lesen 0
Hinterlassen Sie eine Nachricht.