Es kursierten Petitionen, insgesamt über 4000 Unterschriften sollen gesammelt worden sein, es kam sogar zu 13 Kündigungen, doch am Ende setzte sich die Google-Belegschaft durch: Ein Vertrag des Tech-Giganten mit dem US-Militär wird. Bei dem gemeinsamen Projekt ging es um die Auswertung von Drohnen-Bildern mit Hilfe von künstlicher Intelligenz.
Die betriebsinterne Kontroverse hat die Google-Führung nun dazu veranlasst, festzulegen, wofür künstliche Intelligenz eingesetzt werden soll – und wofür nicht. Künstliche Intelligenz soll demnach nicht bei Waffensystemen zur Anwendung kommen. Konkret benennt der Konzern vier No-Gos (finden Sie die Google-Erklärung im Original):
- Künstliche Intelligenz darf nicht für Dinge eingesetzt werden, die im Ergebnis mehr schaden als nützen.
- Künstliche Intelligenz darf nicht in Waffensystemen eingesetzt werden, deren Ziel es ist, Menschen direkt zu verletzen.
- Künstliche Intelligenz darf nicht zur Überwachung eingesetzt werden, die internationales Recht bricht.
- Künstliche Intelligenz darf nicht eingesetzt werden, um Menschenrechte zu verletzen.
In anderen Bereichen kooperiert Google weiterhin mit dem Militär
Stattdessen soll künstliche Intelligenz beispielsweise in der Medizin eingesetzt werden, um etwa Krebserkrankungen frühzeitig zu erkennen. Zudem soll Algorithmen beigebracht werden, keine menschlichen Vorurteile zu reproduzieren. In anderen Bereichen als den der künstlichen Intelligenz möchte Google allerdings weiter mit dem Militär zusammenarbeiten.