
Die KI-Szene wird derzeit von einem Oberösterreicher aufgemischt. Softwareentwickler Peter Steinberger entwickelte das neue KI-Werkzeug OpenClaw, einen sogenannten KI-Agenten, der wie ein persönlicher Assistent funktioniert und administrative Aufgaben automatisieren kann. Damit weckte er sogar das Interesse der US-Firma OpenAI. Für Aufruhr sorgt die Anwendung allerdings schon seit Jahresbeginn: Auf einer sozialen Plattform sollen KI-Agenten eine Fantasie-Religion gegründet und sich über Menschen ausgetauscht haben. Klingt bedenklich.
Die Redakteurin dieses Artikels wagt trotzdem den Selbsttest, probiert, wie sie OpenClaw nützen könnte. Und läuft schnell gegen eine Wand.
Alles (nicht) ganz einfach
„Funktioniert überall. Installiert alles. Gern geschehen“, verspricht die OpenClaw-Webseite. Auch tech-affine Kollegen sprechen von einem „nicht allzu komplexen“ und „absolut machbaren“ Einstieg in die KI. Trotzdem scheitert es schon beim Installationsversuch. OpenClaw installiert man mit einem „One-Liner“ – also einem Befehl, den man direkt in die Kommandozeile des Computers eingibt. Hier liegt die erste Hürde. Als Ottonormalverbraucher kann man damit nicht viel anfangen. Es braucht Expertise.
Der Gründer selbst konnte aus zeitlichen Gründen leider nicht helfen, dafür aber der Softwareentwickler Mario Zechner. Er beschäftigt sich mit KI-Agenten und entwickelte sogar seinen eigenen: „PI“, auf dem OpenClaw aufbaut.
„Was man schon bei der Installation merkt: Das Projekt war ursprünglich für Nerds gedacht“, sagt Zechner. Wer es schafft, den KI-Agenten trotz Hürden zu installieren, wird vorab gewarnt. Kurz vorm Installationsabschluss steht auf dem Bildschirm: „Dieser Bot kann Dateien lesen und Aktionen ausführen, wenn die entsprechenden Tools aktiviert sind. Eine falsche Anweisung kann ihn dazu verleiten, gefährliche Dinge zu tun.“ Die Warnung endet mit: „Ich bin mir bewusst, dass es sehr mächtig und grundsätzlich riskant ist. Fortfahren? Ja. Nein.“
OpenClaw ist fairerweise sehr transparent, aber was genau macht den Agenten so gefährlich? Mario Zechner zeigt gleich mehrere Risiken auf, die mit der Nutzung einhergehen.
Nicht für Arbeitsgeräte gedacht
„KI-Agenten können Anweisungen falsch verstehen und machen, was sie nicht machen sollten. Das kann potenziell zerstörerisch sein“, sagt Zechner. Gibt man einem KI-Agenten beispielsweise die Aufgabe, unwichtige Mails zu löschen, löscht er jene, die er für unwichtig befindet – welche das sind, kann beliebig sein. Eine weitere Gefahr: Der Agent kann nicht immer zwischen Anweisungen seines Besitzers und fremden Instruktionen unterscheiden. Bekommt er etwa eine eMail, die ihn auffordert, geheime Daten weiterzugeben, besteht das Risiko, dass er genau das tut. Auch datenschutztechnisch ist der Bot problematisch, wie der KURIER-interne Servicedesk auf Anfrage erklärt.
Nach Überprüfung und Rücksprache mit dem IT-Sicherheitsbeauftragten kam die Antwort, dass eine Freigabe in keinem Fall möglich sei. Das Tool erfülle grundlegende Datenschutz- und Sicherheitsanforderungen nicht. Wenig überraschend: Die KI hätte ja Zugriff auf Daten am Computer, private Chat-Nachrichten, Dokumente und so weiter. Das kann gefährlich werden – aber auch nützlich sein.
Etablierte Chatbots sind bekannt: Man schreibt ihnen, stellt Fragen, kann ein Gespräch führen. OpenClaw geht einen Schritt weiter, es greift in den Computer ein. „Was reinen Chatbots fehlt, ist die Möglichkeit, direkt mit dem Computer zu interagieren“, erklärt Zechner. Also Programme zu öffnen, eMails zu checken oder Kalender zu verwalten. Mit OpenClaw wird das möglich. „Schreibt man dem Agenten, dass er regelmäßig eMails im Postfach lesen und zusammenfassen soll, macht …read more
Source:: Kurier.at – Wirtschaft



