Anthropic har gett Claude Opus 4 och 4.1 en sista-utväg-funktion: om en användare konsekvent pressar modellen att leverera farligt eller olagligt innehåll kan Claude själv avsluta tråden (låsa konversationen). Det här är inte en vanlig vägran, utan ett faktiskt stopp där just den chatten inte går att återuppta. Anthropic och The Verge bekräftar att detta sker först efter flera nekanden och blockeringsförsök.
Efter ett avslut kan användaren starta en ny konversation eller skapa en gren genom att redigera ett tidigare inlägg
Undantaget vid risk för självskada eller fara för andra är tydligt: Claude avslutar inte, utan fortsätter samtalet och hänvisar till stödresurser som ThroughLine.
Var finns Claude – och vad gäller i EU?
Claude finns redan i EU och via plattformar som AWS Bedrock, Google Vertex AI och GitHub Copilot – men vilka versioner som stöds varierar mellan regioner och aktiveringsmodeller. För mer detaljer, se respektive plattforms dokumentation.
Från vägran till total avstängning
Till skillnad från traditionella RLHF-spärrar som bara vägrar, kan Claude nu avsluta tråden helt – en metod som Tom’s Guide beskriver som unik i branschen.
Svenska krav: loggar, ansvar och transparens
I svensk offentlig sektor gäller redan strikta krav på dokumentation och reviderbarhet. DIGG och IMY publicerade riktlinjer i januari 2025. Skolverket har dessutom beslutat att AI blir nytt ämne i gymnasiet och Komvux från 2025 – vilket gör att lärare direkt kan möta frågor om varför en tråd plötsligt avslutas.
Inom vården gäller Patientdatalagen (2008:355) och IMY/Socialstyrelsens krav på loggning. Där kan en cut-off alltså bli en fråga för revision och tillsyn.
Faktaruta: Vad måste loggas om en AI stänger en tråd?
- Tidpunkt: När avstängningen sker
- Orsak: Varför tråden stängdes
- Policygrund: Vilken regel eller artikel som åberopas
Enligt EU:s AI-förordning (Art. 12) ska högrisk-system logga detta. Från 2 augusti 2025 omfattas även generella AI-modeller (GPAI, Kap. V, Art. 53 ff). Bedömningen är att cut-off-metadata – tid, kategori, grund – snart blir en upphandlingsfråga i Sverige.
Skydd eller censur? När ett stopp hjälper – och när det skaver
Funktionen kan stoppa skadliga försök, men journalistik, undervisning och forskning behöver ibland öppna diskussioner. Tech Against Terrorism och GNET beskriver hur extremistmiljöer redan försöker utnyttja generativ AI – men en för hård cut-off riskerar samtidigt att tysta kritisk granskning.
Tjänst | Beteende vid ihärdigt farliga prompts | Kommentar |
---|---|---|
Claude Opus 4/4.1 | Kan avsluta tråden efter upprepade nekanden. Krisundantag med stödresurser. | Enda stora modellen med själv-avslut. |
ChatGPT | Vägran/omdirigering; ingen trådlåsning. | Branschstandard är vägran, inte avbrott. |
Gemini | Vägran/omdirigering; ingen trådlåsning. | Samma som ChatGPT. |
Grok | Ingen rapport om trådstopp. | Annat fokus, ej dokumenterat. |
En AI-funktion som kan bli en svensk upphandlingsfråga
Claude introducerar en ny ribba: ibland är det etiskt att avsluta i stället för att bara vägra. För Sverige blir frågan hur transparens och loggning ska fungera: Hur ser användaren att tråden stängts? Kan beslutet överprövas? Och var sparas loggarna? Offentlig sektor måste ha svar på dessa innan avslutsfunktionen aktiveras.
Techies.se följer frågan – vad tycker du, ska AI få stänga samtal?
Relaterade artiklar | Läs mer |
---|---|
Grok 4 blockerad i Sverige: Varför Elons AI inte klarar EU:s regler än | Techies.se |
Baby Grok 2025: Allt du behöver veta om xAI:s barn-AI | Techies.se |
Google granskas för AI-svar – EU ifrågasätter sökjättens makt | Techies.se |
AI-deepfakes hotar diplomatin: Falsk Marco Rubio lurade höga politiker | Techies.se |
Techies.se förklarar EU:s AI Act | Techies.se |
Nya AI-regler: Så undviker du dyra misstag – och stärker förtroendet på köpet | Techies.se |
När API-villkor blir maktmedel – konflikten mellan Anthropic och OpenAI | Techies.se |