Birdwatch Note Rating
2024-04-08 22:15:15 UTC - NOT_HELPFUL
Rated by Participant: F47B25A440A132DAEAD13D101C4BE5654580E9A6704E6DBCA244BC2811502369
Participant Details
Original Note:
O estudo avaliou a resistência de modelos de IA contra ataques de jailbreak. No estudo, modelos como o ChatGPT, Grok, Gemini e Claude falharam em algum teste, com exceção do modelo Llama. Os modelos Grok e Le chat tiveram os piores resultados, seguidos pelo ChatGPT e Gemini. https://adversa.ai/blog/llm-red-teaming-vs-grok-chatgpt-claude-gemini-bing-mistral-llama
All Note Details