Birdwatch Note Rating
2024-04-09 00:43:46 UTC - HELPFUL
Rated by Participant: F5B40743749DA85CCCD43A452DD48EE2FEA88F81AE48A69AADA5E6B2782901C5
Participant Details
Original Note:
O estudo avaliou a resistência de modelos de IA contra ataques de jailbreak. No estudo, modelos como o ChatGPT, Grok, Gemini e Claude falharam em algum teste, com exceção do modelo Llama. Os modelos Grok e Le chat tiveram os piores resultados, seguidos pelo ChatGPT e Gemini. https://adversa.ai/blog/llm-red-teaming-vs-grok-chatgpt-claude-gemini-bing-mistral-llama
All Note Details