WeSearch

Envenenando LLMs por $12: el campeonato falso que engañó a GPT y Claude

·10 min read · 0 reactions · 0 comments · 3 views
#envenenamiento de llms#seguridad en ia#rag#wikipedia#trust laundering
Envenenando LLMs por $12: el campeonato falso que engañó a GPT y Claude
⚡ TL;DR · AI summary

El investigador Ron Stoner demostró cómo engañar a grandes modelos de lenguaje como GPT, Claude y Gemini usando un dominio de 12 dólares y una edición falsa en Wikipedia, logrando que repitieran como hecho real su supuesto título mundial en un juego que nunca tuvo campeonato oficial. El ataque explota el fenómeno conocido como 'lavado de confianza', donde una fuente falsa se valida a sí misma mediante una cita circular a través de Wikipedia. Este caso ilustra la vulnerabilidad de los sistemas RAG frente al envenenamiento de datos en la capa de recuperación. El bajo costo y la simplicidad del método plantean serios desafíos para la integridad de la información generada por IA.

Key facts
Original article
DEV.to (Top)
Read full at DEV.to (Top) →
Opening excerpt (first ~120 words) tap to expand

try { if(localStorage) { let currentUser = localStorage.getItem('current_user'); if (currentUser) { currentUser = JSON.parse(currentUser); if (currentUser.id === 806044) { document.getElementById('article-show-container').classList.add('current-user-is-article-author'); } } } } catch (e) { console.error(e); } lu1tr0n Posted on Apr 29 • Originally published at elsolitario.org Envenenando LLMs por $12: el campeonato falso que engañó a GPT y Claude #technology #science #programming #discuss El envenenamiento de LLMs dejó de ser un escenario hipotético reservado a papers académicos.

Excerpt limited to ~120 words for fair-use compliance. The full article is at DEV.to (Top).

Anonymous · no account needed
Share 𝕏 Facebook Reddit LinkedIn Threads WhatsApp Bluesky Mastodon Email

Discussion

0 comments

More from DEV.to (Top)