Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen

Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfr ...

Das könnte Sie auch interessieren ...

heise.de

Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen

Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern sol... mehr ... 5. Februar 2025

Datenschützer warnen vor Überwachung durch Corona-KI-Chatbot

**FÜR EILIGE** Kurz gesagt: Der neu eingeführte Corona-KI-Chatbot DeepSeek birgt nach Meinung von... mehr ... 5. Februar 2025

golem.de

Time Bandit: Neuer Jailbreak verwirrt ChatGPT mit Zeitreisen

Durch den Jailbreak verliert ChatGPT sein Zeitbewusstsein. Der Chatbot hat daraufhin bei Tests berei... mehr ... 31. Januar 2025

heise.de

Anthropic: KI-Unternehmen verbietet KI-geschriebene Bewerbungen

Obwohl Anthropic selbst Sprachmodelle entwickelt, sind mit KI verfasste Bewerbungen nicht erlaubt. D... mehr ... 4. Februar 2025

heise.de

Anthropic: KI-Unternehmen verbietet KI-geschriebene Bewerbungen

Obwohl Anthropic selbst Sprachmodelle entwickelt, sind mit KI verfasste Bewerbungen nicht erlaubt. D... mehr ... 4. Februar 2025

Italien blockiert chinesische KI-App wegen Datenschutzbedenken

**F ür Eilige:** Die italienische Datenschutzbehörde Garante hat der chinesischen KI-App DeepSeek... mehr ... 31. Januar 2025

computerwoche.de

Nach Deepseek: OpenAI bringt neues Reasoning-Modell o3-mini

Mit 03-mini will OpenAI dem chinesischen Reasoning-Konkurrenten Deepseek Parol... mehr ... 3. Februar 2025

expand_less