AI - wir sind sowas von verloren

Ich habe die ganze letzte Woche mit Leuten aus der AI-Branche verbracht. Da waren Gründer von Unternehmen, die Sachen mit AI machen und ihre Techies, die sich federführend darum kümmern. Was ich da zu hören bekam, war wirklich schlimm.

Definition von AI

„Ein riesiger Haufen If-Else-Blöcke gepaart mit Statistikdaten.“

Der geneigte Leser hier kennt natürlich bereits diese Definition von AI und warum es eigentlich keine AI ist.
Keiner der Leute vor Ort hat dieser Definition widersprochen. Da hatte ich zugegebenermaßen mit mehr Widerstand gerechnet.

AI – die Zerstörung der Erde?

Ich wurde von einer Mitarbeiterin eines der größten Unternehmen der Tech-Branche dort gefragt, ob ich glaube, dass AI die Erde zerstören könnte.

Meine Antwort: „Nö!“

Warum ich nicht glaube, dass AI die Erde zerstört? Weil wir nach meiner Definition keine AI haben. Das ist, als würdest du am Ende fragen, ob eine Kombination aus Excel und einer SQL-Datenbank die Welt zerstören könne.

Das ist alles nur Zufall.

Entwickler kennen das Gefühl: irgendwas funktioniert, aber niemand weiß auf den ersten Blick, warum. Oder warum nicht. Am Ende ist das aber alles deterministisch.

Und dann waren da Entwickler von einer sehr bekannten AI und haben Talks gegeben. Auf die Frage, warum man zweimal das exakt gleiche Setup aufsetzen kann, inklusive frischer Kontexte, und bei gleicher Frage zwei unterschiedliche Antworten erhält, wurde mit wildem Achselzucken beantwortet.

Ich sag’s euch: Die haben gottverdammt nochmal keine Ahnung, was die da wirklich bauen. Wir reden hier von Algorithmen.

Irgendein Genie, und nein, es war nicht Einstein, meinte doch mal:

Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.

Die AI macht genau das jetzt möglich.
Ist sie also wahnsinnig? Ich würde sagen: nur wahnsinnig schlecht.

Fehlerhafte Antworten? Ist doch egal!

Jemand erzählte von seiner Professur an einer Uni hier in Europa und dass er immer häufiger mit AI-Inhalten zu kämpfen hat. Das geht sogar so weit, dass Paper nach einem Peer-Review Absätze beinhalten wie:

Hallo! Wie kann ich dir heute helfen?

Hier sind ein paar Ideen, was wir zusammen machen können: …

Andere Techies erzählten, dass sie ja bei den Junior-Codern am Anfang strenge Code-Reviews durchführen, weil da sonst Code in Production liefe, der weder selbst geschrieben noch getestet wurde. Und damit meine ich nicht einmal Unit-Tests. Nein, die sind inzwischen so faul, dass die paar Zeilen, die sie sich haben generieren lassen, nicht mal per Hand getestet wurden.

Die stellten halt sehr schnell fest, dass die generierten Unit-Tests nichts wirklich getestet haben und der generierte Schrott einfach mal Fehler geworfen und teilweise sogar Dinge kaputt gemacht hat.

Überrascht euch das? Mich nicht.

Meine Alarmglocken sind sofort angesprungen und ich habe im Übrigen die Aufforderung hinterhergeworfen, dass sie bitte gefälligst bei ALLEN Entwicklern strenge Code-Reviews machen sollen. Fanden die Leute im ersten Moment komisch, aber nach nur einer Sekunde Bedenkzeit fiel ihnen auf, dass das vielleicht nicht komplett blöd wäre.

Chipkrise? Welche Chipkrise?

Den interessantesten Talk hatte ich mit dem AI-Fraggel eines israelischen Startups. Wir unterhielten uns ganz normal über Optimierungen und ich habe die Behauptung in den Raum geworfen, dass die AI die bestimmten Optimierungen, über die wir sprachen, gar nicht machen könnte.

Dabei ging die Diskussion dann allerdings in eine Richtung, die ich so nicht erwartet hätte. Er hinterfragte: Wozu optimieren? Ist doch egal! RAM, CPU und GPU sind laut seiner Aussage schließlich immer und jederzeit verfügbar und das sogar zu so günstigen Preisen, dass jedwede Optimierung völlig unsinnig wäre.

Mal abgesehen vom schlechten Ergebnis finde ich diese Aussage wirklich tollkühn!
Zum einen ist die Chipkrise, die es laut ihm gar nicht gibt, echt schlimm gerade. Zum Anderen ist diese „was kostet die Welt“-Mentalität mancher Startups eine Katastrophe. Die Betreiber der AIs freuen sich.

Inzwischen würde ich die obige Frage, ob ich denke, dass AI die Welt zerstören könnte, eher mit „Die AI nicht, aber die Menschen, die sie bedienen“ beantworten.

Lehrauftrag abgeschlossen?

Was viele Menschen, die den ganzen Tag mit AI arbeiten, wirklich zum Schweigen gebracht hat, war immer meine Nachfrage, was die AIs denn noch lernen sollen, wenn sie das Internet bereits komplett indexiert haben? Und wir alle wissen, dass diese AIs gerade viel Traffic bei Website-Betreibern verursachen, durch ständiges Crawling.

Klar, es kommt jeden Tag immer noch etwas hinzu, aber vieles davon wurde bereits durch AI produziert und ist daher nutzlos für das weitere Training.

Klar, du kannst noch ein paar Algorithmen auf die Probleme werfen, aber das Lehrmaterial ist quasi am Ende. Da kommt dann nix mehr.

Aber vielleicht bewerfen wir am Ende die Probleme einfach mit noch mehr AI, auf dass uns nach reiflicher Ignoranz der Fakten und Umsetzbarkeit einfach alles endgültig abdriftet.

Zusammenfassung   (Anklicken zum Anzeigen)

Bitte hör auf, deine Aufmerksamkeitsspanne zu verkürzen, indem du ständig Kurzvideos schaust. Lies einfach den Text und lern wieder, zu verstehen. Nimm dir Zeit! Sonst bist du so dumm, wie die Menschen, die ich hier anspreche.


Kommentare

Henry

Danke für den Artikel, der einige meiner Annahmen bestätigt. Zwei Anmerkungen dazu:

  • Klar kann AI nicht von sich aus die Erde zerstören, ihre Anwendung aber schon. Durch den immensen Energieverbauch und damit einhergehenden ökologischen Fußabdruck trägt sie zumindest zur Zerstörung der Erde bei.

  • “Er hinterfragte: Wozu optimieren? Ist doch egal!” Diese Haltung ist ja nicht neu, so wird doch schon seit mindestens 30 Jahren gedacht, zumindest in großen Teilen der Entwickler-Community und noch mehr in Software-Firmen.

mthie

  • Klar kann AI nicht von sich aus die Erde zerstören, ihre Anwendung aber schon. Durch den immensen Energieverbauch und damit einhergehenden ökologischen Fußabdruck trägt sie zumindest zur Zerstörung der Erde bei.

Dem pflichte ich erstmal so bei. Allerdings ist das eher die indirekte Variante. Es ging bei der Frage eher um diese Terminator-Style-Zerstörung der Erde.

Mordok

Ich sehe hier nichts, das spezifisch für KI-Entwickler ist. Wie Henry bereits schrieb, kümmern sich heute die wenigsten um Performanz und Effizienz (beispielsweise die JS-Entwickler-Community), es gibt ja auch keinen Druck. Gerade bei großen Sprachmodellen aber hat sich vor Jahren schon eine rege Forschercommunity entwickelt, die versucht den Ressourcenverbrauch von großen Modellen zu minimieren. Insbesondere die großen Firmen in der Branche wie Microsoft, Google etc. forschen viel an deren Optimierung.

Start-ups hingegen erhalten viel Geld von Investoren und haben ebenso keinen Druck, sparsam damit umzugehen.

Früher haben (faule) Junior-Kollegen Code von StackOverflow herüber kopiert. Heute halt von OpenAI. Die einfache Nutzung senkt sicher die Hemmschwelle, aber statt die Nutzung von KI generell zu verpöhnen, sollten wir unsere Prozesse so anpassen, dass wir die Fehler auffangen können, die durch einen Missbrauch von KIs entstehen.

Solange man den Inhalt kontrolliert, ist am Gebrauch von KI zur Formulierung von Text (auch wissenschaftlichen Arbeiten) oder Code nichts verwerfliches. Es bleibt am Ende ein Fehler auf OSI-Level 8.

„Ein riesiger Haufen If-Else-Blöcke gepaart mit Statistikdaten.“

Diese “Definition” ist doch sehr vereinfachend. Das trifft vielleicht auf CARTs zu, aber Sprache kannst du nicht auch diese Art vernünftig darstellen.

Kommentar schreiben

Jeder Kommentar wird vor der Veröffentlichung überprüft.