Oscillazione del Dow Jones, incassi dei film al botteghino ma anche previsione di risultati elettorali e di possibili colpi di stato: la nuova frontiera del marketing si chiama Sentiment analysis, la lettura emozionale dei milioni di messaggi, post, tweet che ci scambiamo ogni giorno, finalizzata in una prima fase al rilevamento della reputazione dei marchi e dell’efficacia pubblicitaria, ed ora ad un più generale nowcasting e forecasting di intenzioni e comportamenti individuali. I big data che scaturiscono dall’attività dei milioni di utenti dei social network costituiscono una sorta di dinamico e permanente sondaggio demoscopico che fa gola a corporazioni e governi: gli analisti hanno smesso i panni di annusatori d’aria e preso a esaminare sistematicamente gli attributi - positivo negativo o neutro - che emergono dalle parole chiave immesse nell’agorà virtuale, grazie a una varietà di software disponibili. Programmi non più basati sulla forza bruta, come il mero calcolo della ricorrenza di parole dense nei nostri messaggi o di ricerche Google, ma in grado di aggirare le insidie linguistiche grazie alla supervisione umana. In Italia è particolarmente attivo il gruppo Voices from the blog, nato nel 2012 come spin-off dall’Università di Milano grazie agli accademici Curini, Iacus e Ceron, recentemente in luce per l’analisi della felicità espresso nei tweet provenienti dalle province italiane da cui emerge, ad esempio, che si è più felici al sud e vicino al mare e meno nelle grandi città. Il loro segreto è nel software iSA che permette una precodifica umana su un limitato campione di un migliaio di tweet, grazie alla quale i testi sono ridotti a stilemi, parole o radici ricorrenti nella sfera che si va ad analizzare, che faciliteranno il lavoro di scoring. Nelle loro analisi su Twitter, social network d’elezione per via della percentuale di profili pubblici consultabili attraverso lo streaming API (Application Programming Interface), sono giunti a risultati sorprendentemente vicini a quelli di statistiche ufficiali sulla percentuale di favorevoli al ritorno alla lira in Italia, attestato attualmente intorno al 50%. Altri studi internazionali asseriscono di poter individuare le variazioni del prezzo dell’oro, del petrolio e dei tassi di cambio in base al sentiment espresso nei siti specializzati, mentre la Banca di Inghilterra ha previsto le variazioni nel mercato immobiliare sulla base dei dati delle ricerche su Google. E se dall’americana Cornell University fanno sapere di essere in grado di prevedere vendite di libri e incassi al botteghino dei film, si discute di misurare i dati auditel attraverso volume e sentiment dei commenti in rete, dopo che l'analisi dei tweet aveva centrato ogni previsione sulle eliminazioni e sul vincitore del talent America Idol. Facebook ha deciso di recuperare terreno mettendo a punto una task force per costruire un sistema di intelligenza artificiale in grado di offrire in bacheca contenuti più in armonia col proprio mood imitando l’attività dei neuroni, proprio mentre la strana coppia formata da CIA e Google ha elaborato il progetto Recorded Future per analizzare siti web, blog e account Twitter e cercare correlazioni tra persone, organizzazioni ed eventi, traendo spunto da uno studio di Radinsky e Horvitz in base al quale utilizzando un mix di fonti si sarebbero potute prevedere le rivolte in Tunisia, Egitto e Libia e la stabilità in Arabia Saudita. Chi non è spaventato da una deriva psicopoliziesca può guardare con più serenità alle possibili applicazioni benigne: le istituzioni potrebbero trarre consigli e indicazioni aumentando la loro responsiveness, ovvero la capacità di rispondere alle preferenze dei cittadini. Come accaduto a Milano all’epoca dell’introduzione dell’Area C: in quell’occasione Voices from the blog ha fornito all’amministrazione comunale i dati sulla drastica riduzione del gradimento dei cittadini dovuto agli scarsi benefici in termini di inquinamento e traffico, portando a una cambiamento nella comunicazione e a una prudente retromarcia. Il futuro sarà e-democratic?