Obiettivo dell'insegnamento è favorire la riflessione sulle implicazioni tecniche, socio-politiche, culturali ed etiche del paradigma dei big data, ovvero le grandi aggregazioni di dati che fluiscono in tempo reale da molteplici fonti e accompagnano la vita sociale in tutti i suoi ambiti.

Il corso è articolato in due parti: una introduttiva e una di approfondimento.

La parte introduttiva (6 lezioni, per un totale di 12 ore) esplora la natura del fenomeno e le sue radici storiche, evidenziando i fattori che ne determinano la pervasività. In particolare sono presi in considerazione quattro domini applicativi nei quali il paradigma dei big data sta abilitando i cambiamenti più significativi:
- Informazione e giornalismo
- Marketing e pubblicità
- Finanza
- Bioinformatica, medicina e farmaceutica

La parte di approfondimento (12 lezioni, per un totale di 24 ore) si organizza intorno all'ambito tematico specifico dell'informazione online. Saranno analizzati e discussi:
- l'influenza dei grandi filtri (Google e Facebook) nella formazione dell'opinione pubblica
- le basi tecniche delle cosiddette "fake news” e i principali esempi di canali di disinformazione
- l'evoluzione delle tecnologie per la produzione automatica di notizie
- la pratica e gli strumenti del cosiddetto "data journalism

La parte di approfondimento è organizzata alternando lezioni frontali ed esercitazioni, con l'obiettivo di familiare con strumenti di fact checking, data scraping e data visualisation. Per lo svolgimento delle esercitazioni non sono richieste particolari competenze tecniche, ma la familiarità con Microsoft Excel può aiutare. In tal senso si suggerisce agli studenti meno esperti di prepararsi preliminarmente attraverso una delle diverse opportunità di formazione online (es.: Coursera, Udemy, ...) oppure sfruttando gli innumerevoli tutorial disponibili su YouTube.