
Seit Monaten ist er voll, mein Social Media Feed, mit KI-News. Die Ereignisse scheinen sich förmlich zu überschlagen. Ständig schafft KI (also künstliche Intelligenz) etwas Neues, etwas vorher nie Dagewesenes, etwas Perfektes und Profitables, kurzum etwas, was die Welt verändern wird.
Zwischen eben diesen News, die oftmals bei näherer Betrachtung nicht einmal dieses anglo-amerikanische Label verdienen, schleicht sich aber noch etwas ein. KI wird den künftigen Arbeitsmarkt verändern, das ist absehbar. Doch wie und wen wird es treffen? Die KI-News-Accounts sind sich da weitestgehend einig – zumindest in meinem Feed.
Übersetzer*innen, Verwaltungsangestellte, (Kunden-)Support und dann sehe ich es, meist irgendwo in den Top 10: HISTORIKER! Ich bekomme etwas Panik, lege genervt mein Smartphone weg. Nur um es dann doch wieder in die Hand zu nehmen und mir den Post nochmal anzusehen. Ich scrolle weiter, neben lustigen Hundevideos, aktuell wirklich zu vielen Fotos von Donald Trump, versteckt zwischen Supermarktwerbung und irgendeinem Demonstrationsaufruf, finde ich einen weiteren Post.
Wieder dasselbe Bild: „Arbeitsplatz in Gefahr! Das sind die Jobs mit dem größten Risiko von KI ersetzt zu werden!“ Diesmal wirbt der News-Account sogar mit einer von Microsoft angefertigten Studie. Platz 1 der Jobs: Dolmetscher und Übersetzer, Platz 2: HISTORIKER!, wieder schleicht sich etwas Panik ein, Platz 3: Passagierbetreuer. Platz 4: Vertriebsmitarbeiter, insgesamt 40 Jobs werden aufgelistet.
Die Panik verlässt mich derweil. Wut kommt auf, nicht auf den Post, nicht auf den KI-News-Account, sondern auf mich; „Warum habe ich nichts Anständiges studiert?“ Gleichzeitig weiß ich, die Analyse und Interpretation von historischen Begebenheiten, das Erforschen von Geschichte, der Einsatz für Demokratie und Menschenrechte, die Arbeit, die ich jeden Tag im Fritz Bauer Forum tue, ist doch nicht umsonst – oder? Da ist er wieder, der geisteswissenschaftliche Selbstzweifel…
Ich lese weiter, da war doch noch irgendwas mit einer Quelle. „Eine Studie von Microsoft“ steht in dem Beitrag – einen Link gibt es nicht, ist schließlich Instagram. Jedenfalls ist es eine Studie von Microsoft und wenn das stimmt, was hier behauptet wird, stehe ich kurz oder lang vor einem Problem…
Bewaffnet mit dem Namen der vermeintlichen Studie ziehe ich also los. Mittlerweile liege ich auch nicht mehr mit Smartphone auf dem Sofa, sondern sitze an meinem Schreibtisch, vor meinem Computer. Die Quellenrecherche beginnt… Bruchteile einer Sekunde vergehen, das erste Ergebnis in der Suchmaschine: gefunden! Unter einer knappen, englischsprachigen Zusammenfassung auf einer Webseite von Microsoft findet sich ein Link zu GitHub [1] .
Super, dann finde ich jetzt also heraus, warum ich bald arbeitslos sein könnte… Ich beginne zu lesen und muss gleich nach dem Titel nochmal ansetzen. Nicht, weil er nur aus Fachbegriffen bestehen würde, nein, gleich das zweite Wort macht mich stutzig: „with“. „Working with AI” also „Arbeiten mit KI“. Dann lese ich den zweiten Teil des Titels: „Measuring the Applicability of Generative AI to Occupations“. [2] Übersetzt so viel wie: “Messung der Anwendbarkeit generativer KI auf Berufe“. Ein sehr nüchterner Titel. Ich überfliege den Text weiter, nicht weil ich mir einbilde, ich könnte die Studie auf diesem Weg verstehen – wir erinnern uns, ich bin Historiker, kein Informatiker – sondern weil ich das Grundkonzept der Studie und ihren untersuchten Gegenstand erfahren will. Was genau haben die Forscher*innen da gemacht?
Keine Erwähnung von Arbeitsplätzen, die in Gefahr wären. Keine umfassenden Aufrufe zur Umschulung ganzer Berufsgruppen, keine apokalyptische Beschreibung einer Gesellschaft, in der KI kreative oder analytische Aufgaben übernimmt. Sondern eine Hypothese: Wir arbeiten als Gesellschaft bereits jetzt MIT generativer, also Material erzeugender, Künstlicher Intelligenz und dieses MIT hat unterschiedliche Konsequenzen für unterschiedliche Berufsgruppen.
Fast schon enttäuscht stehe ich auf, hole mir ein Glas Wasser. Dem Post, mit dem dieses kurze Abenteuer begann, lag eine Tabelle aus der Studie zu Grunde. Eine Liste von 40 Jobs, die KI in Zukunft überflüssig machen würde, so hieß es zumindest. In der Studie findet sich diese Liste wieder, mit einer etwas anderen Überschrift: „Top 40 occupations with highest AI applicability score“ [3] , übersetzt: „Die 40 Berufe mit der höchsten KI-Anwendbarkeit“. Mittlerweile bin ich amüsiert, kein Gefühl mehr von Zukunftsangst…
Die Forschenden haben eine Methode entwickelt, Berufsgruppen danach zu bewerten, inwieweit generative KI angewendet werden kann. Diese Bewertung beruht in großen Teilen auf Daten aus Microsofts Copilot Anwendungen und lässt sich als Zahl ausdrücken, bspw. mit 0,462 – die Bewertung für das Berufsfeld Historiker*in. Nur die Gruppe der Dolmetscher*innen und Übersetzer*innen liegt mit einer Bewertung von 0,492 darüber. Ob diese Zahlen stimmen oder ob sie die Realität für Berufsgruppen richtig widerspiegeln, kann und will ich an dieser Stelle nicht beurteilen. Was ich aber weiß – und das verdanke ich der im Studium gelernten Quellenkritik – ist, dass sich auf Basis der Studie nur sehr konstruiert, fast schon böswillig, ein Risiko für bestimmte Berufsgruppen ablesen lässt.
Also keine drohende Arbeitslosigkeit, vielmehr der wissenschaftliche Beleg für etwas, das ich bereits weiß: Mein Arbeitsumfeld verändert sich durch technische Weiterentwicklung. Selbstverständlich… ich schreibe diesen Text an einem Computer, in einer modernen Form der deutschen Sprache. Ich ritze diesen Text nicht in eine Tontafel wie Historiker*innen vor mir und Latein kann ich auch nicht. Text- und Informationsverarbeitung sind Kern meines Arbeitsalltags, dazu gehört selbstverständlich auch das Prüfen besagter Information – ob mit oder ohne generativer KI. Welches Handwerkszeug ich dabei nutze, sei es ein Programm zur Textverarbeitung, Fotos und Grafiken oder KI ist in erster Linie das: ein Handwerkszeug. Ein Text mit genau 200 Zeichen? Ein Kommando und mein Text entspricht den Anforderungen. Überprüfen und abwägen muss ich das Ergebnis vor einer Veröffentlichung natürlich dennoch, genauso wie ich es bei Informationen aus einem Buch auch machen würde. Stimmen die Informationen, die ich übermitteln will, werden sie so übermittelt wie ich es möchte?
Gleichzeitig hat der KI-Einsatz eine klare Grenze: komplexe Sachverhalte, Empathie, juristische Fragestellungen, also immer dann, wenn etwas auf dem Spiel steht. Nicht weil die KI an dieser Stelle die Arbeit verweigert – eine Antwort bekommt man immer – sondern weil eine inhaltliche Entscheidung getroffen werden muss. Eine Problematik, die der Computer Hersteller IBM bereits 1979 in einer internen Präsentation auflöste: „Ein Computer kann niemals zur Rechenschaft gezogen werden, daher darf ein Computer niemals eine Managemententscheidung treffen.“ [4]
Und dennoch hinterlässt der Post einen Nachgeschmack. Er war faktisch falsch, die erzeugten Gefühle waren echt und er ließ mich – wenn auch nur kurz – zweifeln. Zweifel, die ich mit den im Studium gelernten Mittel der Quellenkritik begegnen konnte.
Fragt man derweil eine generative KI wie perplexity.ai nach dem Inhalt der Studie, bekommt man eine adäquate Antwort, die sogar auf die zugrundeliegenden Daten eingeht, die Methodik beschreibt und die Kernaussage wiedergibt.
Ein erhöhtes Risiko für meinen Arbeitsplatz, und das gilt sicherlich auch für die vielen anderen erwähnten Berufsgruppen, sieht auch die KI nicht. Schon ein kurzer Blick ins Internet, ein paar überflogene Zeilen oder ein kurzes Kommando an eine generative KI genügen, damit der betreffende Post und seine Verfasser*in äußerst schlecht dastehen. Vielleicht ist der Job, den wir als Gesellschaft also tatsächlich zur Debatte stellen sollten, der des „KI-Techbro-News-Account“-Betreibers. Zumindest hier zeigt sich, dass die Weiterentwicklung des eigenen Arbeitsplatzes, auch mit generativer KI, wohl verschlafen wurde – von journalistischer Integrität ganz zu schweigen.
Also wieder zurück aufs Sofa, eigentlich hatte ich ja Feierabend und eigentlich sollte ich weniger auf mein Smartphone starren…
[1]
Microsoft Research: „Working with AI“ results files, in: https://github.com/microsoft/working-with-ai
[2]
Tomlinson, Jaffe, Wang, Counts, u. Suri: Working with AI: Measuring the Applicability of Generative AI to Occupations, in: https://arxiv.org/pdf/2507.07935
[3]
Tomlinson, Jaffe, Wang, Counts, u. Suri: Working with AI: Measuring the Applicability of Generative AI to Occupations, in: https://arxiv.org/pdf/2507.07935 S. 39
[4]
IBM: „internal presentation“, 1979. Vgl.: https://web.archive.org/web/20241231172504/https://staging.cohostcdn.org/attachment/cd42a292-bde9-41d2-a900-fd587bd80d5c/C41B7UWWIAAWRCY.jpeg?width=675&auto=webp&dpr=2