
Beim Verfassen meines letzten Beitrags habe ich mich gefragt, was wohl passieren kann, wenn KI einmal weiter fortgeschritten ist. Unter den in den Siebzigerjahren im Goldmann-Verlag erschienenen „Weltraum-Taschenbüchern“ ist das Buch „Maschinenschaden“ (engl.: „Broke-Down Engine“) von Ron Goulart, eine Sammlung von SF-Kurzgeschichten, die sehr lesenswert, inzwischen aber nur noch gebraucht erhältlich ist. Thematisch gehen diese Kurzgeschichten in dieselbe Richtung wie das, was in Stanley Kubricks „2001: Odyssee im Weltraum“ mit dem Bordcomputer HAL 9000 passiert – eben ganz unerwartete Fehlfunktionen, mit denen der Mensch der Zukunft irgendwie zurechtkommen muß. Da geht es um mit KI ausgestattete Kühlschränke, ein sprechendes Haus auf Rädern oder den letzten Müllmann auf der Erde.
Als Sammlung von Kurzgeschichten ist das ganz nett und unterhaltsam, aber was, wenn das in unserer Zukunft einmal Wirklichkeit wird? Wer trägt beispielsweise die Verantwortung, wenn eine KI eine Fehlentscheidung trifft? Der Programmierer? Der Software-Konzern? Oder wer sonst? Eine interessante Frage, die m. E. viel zu wenig berücksichtigt wird.