Las protecciones de los chatbots de IA no previenen la propagación de desinformación sanitaria


Banner Salud Futuro

    Un estudio de la Universidad de Flinders (Australia) ha evaluado la eficacia de las salvaguardas en los modelos de lenguaje extenso (LLM) fundamentales para proteger contra instrucciones maliciosas que podrían convertirlos en herramientas para difundir desinformación, o la creación y difusión deliberada de información falsa con la intención de causar daño. El estudio revela vulnerabilidades en las salvaguardas de GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta de OpenAI.


Fuente: infosalus.com
Automatizado por IFTTT

📚 ¿Quieres aprender más sobre salud natural?
SaludFuturo.blog
Tienda de libros y guías


Descubre más desde Titanoflash

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Tendencias