iToverDose/Technologie· 27 APRIL 2026 · 20:08

Google-Mitarbeiter fordern Pichai: Keine KI für militärische Geheimprojekte

Über 600 Googler warnen den Konzernchef vor einer Zusammenarbeit mit dem Pentagon. Sie fürchten unkontrollierbare Risiken durch Klassifizierung und fordern Transparenz – doch die Debatte wirft neue ethische Fragen auf.

The Verge3 min0 Kommentare

Der Einsatz künstlicher Intelligenz in sensiblen militärischen Anwendungen spaltet nicht nur die Tech-Branche, sondern auch die Belegschaft von Google. Mehr als 600 Mitarbeiter des Tech-Giganten haben sich in einem offenen Brief an CEO Sundar Pichai gewandt und fordern die vollständige Ablehnung von KI-Projekten für das US-Verteidigungsministerium. Wie die Washington Post berichtet, stammt ein Großteil der Unterzeichner aus Googles renommierter DeepMind-KI-Abteilung. Unter ihnen befinden sich zudem über 20 Führungskräfte, darunter Principal Engineers, Direktoren und Vizepräsidenten.

Warum die Belegschaft Alarm schlägt: Datenschutz und unkontrollierbare Risiken

Der Brief der Mitarbeiter unterstreicht fundamentale Bedenken: Die Klassifizierung militärischer KI-Projekte würde Google die Kontrolle über die Nutzung seiner Technologien entziehen. "Die einzige Möglichkeit, sicherzustellen, dass Google nicht mit solchen Schäden in Verbindung gebracht wird, besteht darin, jede Zusammenarbeit mit dem Pentagon abzulehnen", heißt es in dem Schreiben. Ohne klare Einsicht in die Einsatzzwecke bestehe die Gefahr, dass die Technologie in Szenarien genutzt wird, die weder ethisch vertretbar noch mit den Unternehmenswerten vereinbar sind.

Besonders brisant: Die Unterzeichner verweisen auf eine aktuelle Kontroverse zwischen dem Pentagon und dem KI-Start-up Anthropic. Dieses befindet sich in einem Rechtsstreit mit dem US-Militär, nachdem es sich weigerte, Zugang zu seinen Modellen für sensible Militäroperationen zu gewähren. Die Google-Mitarbeiter argumentieren, dass ähnliche Konflikte vermieden werden müssen – insbesondere, da die Technologie in Klassifizierungsstufen ohne öffentliche Aufsicht operieren könnte.

Googles historische Zerrissenheit: Von Pentagon-Deals bis zu internen Protesten

Die Auseinandersetzung um militärische KI-Projekte ist für Google kein neues Kapitel. Bereits 2018 sorgte das Unternehmen mit der Zusammenarbeit an dem Projekt Project Maven für massive interne Proteste. Damals kündigten über 4.000 Mitarbeiter ihre Solidarität mit ethischen Bedenken an, was schließlich dazu führte, dass Google seine Rolle in dem Vorhaben beendete. Die aktuelle Petition zeigt jedoch, dass die Debatte längst nicht abgeschlossen ist – im Gegenteil: Sie hat sich verschärft.

Die Unterzeichner des Briefs betonen, dass die Ablehnung von Klassifizierungsprojekten nicht nur eine Frage der Ethik, sondern auch der Unternehmensreputation sei. Google habe sich in der Vergangenheit als Vorreiter für verantwortungsvolle KI positioniert, doch diese Haltung drohe durch intransparente militärische Anwendungen untergraben zu werden. Die Forderung nach einer klaren Ablehnungspolitik sei daher ein logischer nächster Schritt.

Die Reaktion des Konzerns: Stillstand oder Dialog?

Bisher hat Google auf die Forderungen der Mitarbeiter nicht öffentlich reagiert. Doch die Debatte wirft grundsätzliche Fragen auf: Wie weit reicht die Verantwortung eines Tech-Konzerns für die Nutzung seiner Produkte? Und welche Grenzen sollte ein Unternehmen setzen, wenn es um militärische Anwendungen geht?

Die Situation erinnert an die ethischen Dilemmata, mit denen sich auch andere Tech-Giganten wie Microsoft oder Palantir konfrontiert sehen. Während einige Unternehmen die Zusammenarbeit mit dem Pentagon suchen, um lukrative Verträge zu sichern, priorisieren andere die Einhaltung ethischer Richtlinien. Googles Entscheidung in dieser Angelegenheit könnte nicht nur die interne Moral, sondern auch die öffentliche Wahrnehmung des Konzerns nachhaltig prägen.

Ein Ausblick: Transparenz als Schlüssel für die Zukunft der KI

Die Forderung der Google-Mitarbeiter markiert einen entscheidenden Moment für die Tech-Industrie. Sie unterstreicht, dass die Verantwortung für KI nicht allein bei Entwicklern oder Regierungen liegt, sondern auch bei den Unternehmen, die diese Technologien bereitstellen. Eine klare Positionierung gegen den Einsatz von KI in undurchsichtigen militärischen Projekten könnte Google nicht nur als ethischen Vorreiter etablieren, sondern auch als Vorbild für die gesamte Branche.

Die kommenden Wochen werden zeigen, ob der Konzern auf die Forderungen reagiert – und wie sich die Debatte weiterentwickelt. Eines ist jedoch klar: Die Frage nach der ethischen Verantwortung von KI wird die Tech-Welt auch in Zukunft beschäftigen.

KI-Zusammenfassung

600'den fazla Google çalışanı, CEO Sundar Pichai'ye AI modellerinin gizli askeri projelerde kullanılmasının engellenmesini talep eden bir mektup gönderdi. DeepMind çalışanları da dahil olan imzacılar, şirketin etik duruşunu savunuyor.

Kommentare

00
KOMMENTAR SCHREIBEN
ID #02LAC5

0 / 1200 ZEICHEN

Menschen-Check

5 + 4 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.