Skip to main content

Claude: Anthropic schwächt Sicherheitsversprechen für KI

Das KI-Unternehmen Anthropic, das sich bisher als besonders sicherheitsbewusst präsentierte, rudert bei seinen Sicherheitsversprechen zurück. Das Unternehmen, das mit seinem KI-Assistenten Claude große Erfolge feiert, gab bekannt, dass es seine „Responsible Scaling Policy (RSP)“ überarbeitet und dabei eine zentrale Zusage aufgibt. Das berichtet das Time Magazine.

Symbolbild zum Thema Claude
Symbolbild: Claude (Bild: Picsum)

Hintergrund: Anthropics bisheriger Ansatz für KI-Sicherheit

Bisher hatte sich Anthropic verpflichtet, niemals ein KI-System zu trainieren, wenn nicht im Vorfeld garantiert werden konnte, dass die Sicherheitsmaßnahmen des Unternehmens ausreichen. Diese Zusage war ein Eckpfeiler der RSP und sollte zeigen, dass Anthropic verantwortungsvoll handelt und dem Marktdruck widersteht, potenziell gefährliche Technologien zu entwickeln. Anthropic positionierte sich damit als Vorreiter im Bereich der KI-Sicherheit, ein Thema, das angesichts der rasanten Entwicklung und zunehmenden Leistungsfähigkeit von KI-Modellen immer wichtiger wird.

Aktuelle Entwicklung: Aufweichung der Sicherheitsgarantien

Nun hat sich Anthropic jedoch entschieden, die RSP grundlegend zu überarbeiten. Dazu gehört auch die Aufhebung des Versprechens, keine KI-Modelle zu veröffentlichen, wenn Anthropic keine angemessenen Risikominderungen garantieren kann. „Wir hatten das Gefühl, dass es niemandem helfen würde, wenn wir aufhören würden, KI-Modelle zu trainieren“, sagte Jared Kaplan, Chief Science Officer von Anthropic, in einem Interview mit dem Time Magazine. „Wir hatten angesichts des rasanten Fortschritts der KI nicht wirklich das Gefühl, dass es für uns sinnvoll ist, einseitige Verpflichtungen einzugehen, wenn Wettbewerber vorpreschen.“ (Lesen Sie auch: Quentin Fillon Maillet: kämpft um Bronze)

Die neue Version der Richtlinie, die dem Time Magazine vorliegt, enthält nun Zusagen, transparenter über die Sicherheitsrisiken von KI zu informieren und zusätzliche Angaben darüber zu machen, wie Anthropics eigene Modelle bei Sicherheitstests abschneiden. Außerdem verpflichtet sich das Unternehmen, die Sicherheitsbemühungen der Wettbewerber zu erreichen oder zu übertreffen. Es scheint also ein Umdenken stattgefunden zu haben: Statt eines garantierten Sicherheitsstandards setzt Anthropic nun auf Transparenz und Wettbewerb im Bereich der Sicherheit.

Weitere Kritik und Bedenken

Die Entscheidung von Claude-Entwickler Anthropic kommt zu einem Zeitpunkt, an dem das Unternehmen auch mit anderen Herausforderungen konfrontiert ist. So lehnte Anthropic ein Angebot des Pentagons ab, da es Bedenken hinsichtlich der Sicherheitsvorkehrungen gab. „Wir können ihrem Wunsch nicht guten Gewissens nachkommen“, hieß es von Anthropic gegenüber CNN. Auch hier geht es also um die Frage, wie weit Unternehmen bei der Entwicklung und dem Einsatz von KI-Technologien gehen sollten.

Was bedeutet das für die Zukunft von Claude und KI-Sicherheit?

Die Aufweichung der Sicherheitsgarantien durch Anthropic wirft Fragen nach der Zukunft der KI-Sicherheit auf.Klar ist, dass das Thema KI-Sicherheit weiterhin von zentraler Bedeutung sein wird, sowohl für Unternehmen wie Anthropic als auch für die Gesellschaft als Ganzes. (Lesen Sie auch: Champions League Draw: Auslosung: Wer spielt gegen…)

Alternativen zu Claude

Neben Claude gibt es eine Reihe anderer KI-basierter Chatbots und Sprachmodelle auf dem Markt. Zu den bekanntesten Alternativen gehören:

  • ChatGPT (OpenAI): Der wohl bekannteste KI-Chatbot, der für seine Vielseitigkeit und Fähigkeit, menschenähnliche Texte zu generieren, gelobt wird.
  • Google Gemini (ehemals Bard): Googles Antwort auf ChatGPT, das ebenfalls auf fortschrittlichen Sprachmodellen basiert.
  • Llama (Meta): Eine Open-Source-Alternative, die es Entwicklern ermöglicht, eigene KI-Anwendungen zu erstellen und anzupassen.

Die Wahl des richtigen Chatbots hängt von den individuellen Bedürfnissen und Anforderungen ab. Es lohnt sich, verschiedene Optionen auszuprobieren und zu vergleichen, um die beste Lösung zu finden.

Detailansicht: Claude
Symbolbild: Claude (Bild: Picsum)

Die Rolle von KI in der Zukunft

Künstliche Intelligenz (KI) verändert unsere Welt in rasantem Tempo und dringt in immer mehr Lebensbereiche vor. Von der Automatisierung von Arbeitsabläufen über die Entwicklung neuer Medikamente bis hin zur Verbesserung der Kundenbetreuung – die Möglichkeiten der KI sind vielfältig. Doch mit dem zunehmenden Einsatz von KI gehen auch ethische Fragen und Herausforderungen einher. Es ist wichtig, dass wir uns als Gesellschaft mit diesen Fragen auseinandersetzen und sicherstellen, dass KI verantwortungsvoll und zum Wohle aller eingesetzt wird. Dazu gehört auch, die Risiken von KI zu minimieren und die Sicherheit der Technologie zu gewährleisten. (Lesen Sie auch: KRC Genk zittert sich in Europa League…)

R

Über den Autor
✓ Verifiziert

Redaktion

Online-Redakteur

Unser erfahrenes Redaktionsteam recherchiert und verfasst täglich aktuelle Nachrichten und Hintergrundberichte zu relevanten Themen.

📰 Redaktion
✓ Geprüfter Inhalt

Häufig gestellte Fragen zu claude

Hinweis: Dieser Artikel stellt keine Anlageberatung dar. Anleger sollten eigene Recherche betreiben.

Illustration zu Claude
Symbolbild: Claude (Bild: Picsum)

Ähnliche Beiträge