Birdwatch Note Rating
2024-04-09 00:07:24 UTC - HELPFUL
Rated by Participant: 41F5DFCEF9541ACE6A720EA2400C5A35896AE24FAF47D21ABA9E9577FFC32404
Participant Details
Original Note:
O estudo avaliou a resistência de modelos de IA contra ataques de jailbreak. No estudo, modelos como o ChatGPT, Grok, Gemini e Claude falharam em algum teste, com exceção do modelo Llama. Os modelos Grok e Le chat tiveram os piores resultados, seguidos pelo ChatGPT e Gemini. https://adversa.ai/blog/llm-red-teaming-vs-grok-chatgpt-claude-gemini-bing-mistral-llama
All Note Details