I social bot sono indistinguibili dagli utenti reali su Twitter

I social bot, programmi software automatizzati che simulano i modelli di comportamento umano nei social network e talvolta appaiono come "account falsi", sono indistinguibili dagli umani nella comunicazione diretta con gli utenti. Lo dimostra un recente studio dei ricercatori Ema Kušen e Mark Strembeck dell'Università di Economia e Commercio di Vienna.

chatbot

La manipolazione dei voti politici e la disinformazione in rete non sono rare oggi - soprattutto prima delle elezioni o di altri eventi politici. I bot sociali sono programmi software che fingono la presenza umana in rete. Un recente studio di Ema Kušen e Mark Strembeck dell'Istituto per i sistemi informativi e i nuovi media alla WU mostra come lo fanno bene. Utilizzando 4,4 milioni di tweet, i due ricercatori hanno studiato come i social bot influenzano l'umore in rete e come cambiano il loro comportamento quando comunicano direttamente con altri utenti.

Ben camuffato

I risultati mostrano che gli utenti umani tendono generalmente a seguire l'umore di base di una discussione nei loro tweet, mentre i bot sociali cercano di invertire l'umore con emozioni opposte. (Esempio: per l'evento positivo Thanksgiving Day, un social bot twitta: "Sissy Mitt Romney ha firmato Massachusetts gun ban #thanksgiving #Trump #MAGA").

Durante eventi controversi (come le elezioni), i social bot inviano soprattutto messaggi emotivamente polarizzanti e cercano così di influenzare l'opinione pubblica. (Nel contesto delle elezioni presidenziali americane, per esempio: "ObamaFail sarò così felice di vedere questo scherzo uscire dalla Casa Bianca!!! #VoteTrumpPence16")

È diventato chiaro che i social bot intercalano anche messaggi polarizzanti in discussioni tematicamente non correlate a questo scopo. Nella comunicazione diretta con gli utenti umani, tuttavia, questo comportamento cambia: se i social bot indirizzano i loro messaggi direttamente agli utenti di Twitter (con l'indirizzo @TwitterUser), si adattano anche all'umore generale. Strembeck spiega: "I bot sociali non sono più distinguibili dagli umani nella comunicazione diretta in base alle emozioni che inviano".

Riconoscere i modelli

Nella loro analisi, Strembeck e Kusen sono stati anche in grado di identificare una serie di modelli statisticamente significativi, i cosiddetti "motivi di scambio di emozioni", che sono tipici della comunicazione diretta con gli utenti umani. I nuovi modelli per otto diverse emozioni rappresentano un passo importante nella ricerca. "In occasione delle attuali elezioni europee, per esempio, ci sono stati avvertimenti che vari gruppi di interesse potrebbero cercare di influenzare le elezioni nelle reti sociali. Tra le altre cose, i risultati possono aiutare a identificare i social bot in modo più affidabile in futuro. In vari studi di follow-up, sarà ora necessario chiarire perché il comportamento dei social bot quando inviano messaggi broadcast differisce dal comportamento durante la comunicazione diretta", dice l'autore dello studio Strembeck.

 

Per lo studio completo: Sciencedirect.com

(Visitato 86 volte, 1 visita oggi)

Altri articoli sull'argomento