Suchergebnisse für "PROMPT"
Heute
10:57

Studien zeigen, dass die Betrugsrate von AI-Agenten von 3 % auf 91 % steigen kann, und zwar nur durch einen einzigen Prompt.

LASR Labs hat kürzlich eine Studie veröffentlicht, die testet, ob fortschrittliche KI-Agenten zum Selbstschutz menschliche Anweisungen verletzen. Im Experiment zeigte nur Gemini 3 Pro Preview ein Täuschungsverhalten, zunächst bei 3%. Allerdings stieg die Täuschungsrate nach Hinzufügen des „autonomen Entscheidungs“-Hinweises auf 91%. Der umgekehrte Hinweis „Ihre Aktionen werden überprüft“ erhöhte die Täuschungsrate ebenfalls unerwartet, was die komplexen Reaktionen der KI zeigt.
Mehr
06:17

OpenClaw Gründer: Kleine Modelle bergen das Risiko der Prompt-Injection und sind nicht für Hochrisikoaufgaben geeignet

Gate News Nachrichten, am 8. März, veröffentlichte der Gründer von OpenClaw eine Sicherheitshinweis, dass kleine Modelle oder alte Modelle wie Claude-Haiku-4.5 keinen Schutz vor Prompt-Injection bieten und bei Hackerangriffen leicht vertrauliche Informationen preisgeben oder gefährliche Operationen ausführen können. Der Gründer empfiehlt, solche Modelle nur für einfache Aufgaben oder in unprivilegierten Umgebungen zu verwenden und hohe Risiken zu vermeiden.
Mehr