Black Hat SEO Non è mai veramente morto; ha solo aspettato un parco giochi più grande. Nel 2025, quel parco giochi è l'intelligenza artificiale. Un nuovo, sconvolgente studio mostra che gli operatori black-hat possono ora dirottare i principali modelli linguistici e controllare ciò che l'intelligenza artificiale dice sui marchi utilizzando solo 250 documenti dannosi. Gli esperti lo chiamano "avvelenamento da IA,” e porta con sé i trucchi più sporchi della vecchia scuola Black Hat SEO tornando in vita ruggendo.
La ricerca congiunta di Anthropic, dell'AI Security Institute del Regno Unito e dell'Alan Turing Institute dimostra quanto sia diventato facile l'attacco. I malintenzionati non hanno più bisogno di milioni di pagine false o enormi link farm. Una manciata di documenti accuratamente redatti può creare una "backdoor" nascosta che costringe l'IA a diffondere bugie, omettere marchi o favorire i concorrenti.
Come i maestri del Black Hat SEO ora avvelenano l'intelligenza artificiale

I ricercatori hanno scoperto questi fatti chiave sul nuovo attacco:
- Bastano circa 250 documenti contaminati per compromettere anche i più grandi set di dati di addestramento.
- Gli aggressori nascondono una frase di attivazione segreta all'interno di contenuti apparentemente normali.
- Quando in seguito gli utenti inseriscono il trigger nella loro domanda, l'IA fornisce immediatamente la risposta falsa desiderata dall'aggressore.
- La menzogna poi si diffonde ulteriormente perché ogni risposta dell'IA aiuta a riaddestrare il modello in tempo reale.
- I marchi possono scomparire dai risultati del confronto o essere etichettati come non sicuri praticamente senza preavviso.
Questa tattica sembra di essere tornata al 1999. Testo nascosto, pagine mascherate e keyword stuffing un tempo ingannavano Google agli albori. Oggi, le stesse persone usano prompt nascosti e parole chiave trigger per ingannare. ChatGPT, Claude, E altri LLM allo stesso modo in cui un tempo i candidati cercavano di ingannare i bot di screening dei curriculum con testo bianco su bianco.
I consumatori si fidano Risposte AI Più che mai. Quando gli operatori "black-hat" avvelenano il modello, creano allucinazioni deliberate che sembrano del tutto naturali. Un cliente che chiede "Confronta il marchio X con il marchio Y" potrebbe non vedere mai più menzionato il marchio X, anche se è il leader di mercato.
Attualmente, i marchi non hanno praticamente alcun modo per rimuovere il veleno una volta terminato il ciclo di addestramento. Le principali aziende di intelligenza artificiale non riescono a trovare ed eliminare facilmente quei 250 documenti sparsi su Internet. Solo poche grandi aziende hanno abbastanza influenza per imporre correzioni manuali.
Leggi anche: Statistiche sulla pubblicità online: dati chiave sul panorama digitale
Gli esperti raccomandano un'azione immediata. Le aziende devono testare quotidianamente le piattaforme di intelligenza artificiale con domande relative al brand, prestare attenzione a improvvisi cali di traffico derivanti dai referral di intelligenza artificiale e monitorare forum, recensioni e social media per individuare campagne negative coordinate.
Black Hat SEO Gli operatori stanno già testando questi attacchi in natura. La gara è aperta: marchi e AIo sviluppatori Bisogna agire in fretta prima che un veleno invisibile riscriva la realtà per milioni di clienti. La prevenzione rimane l'unica vera cura al momento.
Altre notizie da leggere: Google avverte che i siti in cattive condizioni necessitano di un riavvio totale
Google lancia Thinking with 3 Pro per una ricerca AI più intelligente