Skip to content

IcedGarion/fake-news

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

53 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

FAKE NEWS ANALYSIS

Questo repository affronta il tema dell’individuazione di fake news, con particolare attenzione rivolta all’analisi morfologico-lessicale delle notizie e alla conseguente estrazione di proprietà che possano aiutare a discriminare le notizie vere da quelle false. La fase iniziale presenta un’analisi esplorativa delle ”feature”: caratteristiche estraibili dalle notizie che possono essere sfruttate per classificare le fake news. Ne sono presentate diverse e, per ciascuna, viene evidenziato se si tratta di una caratteristica discriminante o meno. Nella seconda fase, alcune di queste feature vengono utilizzate per isolare delle fake news e si procede ad analizzarne manualmente il testo per cercare ulteriori indicatori o eventuali anomalie presenti.

REQUIRED LIBRARIES

  • nltk (pip install nltk)
  • pattern (pip install pattern)
  • twitter (pip install python-twitter)
  • matplotlib (pip install matplotlib)

CONFIGURATIONS

  • stanford parser path: src/Features.py -> morfological_complexity.__init__ (parser_base_dir) (default: ./parser) Serve stanford parser funzionante (es, parser/stanford-parser-full-2018-02-27/stanford_parser.jar) e i modelli per l'inglese (parser/stanford-parser-full-2018-02-27/englishPCFG.ser.gz)

  • dataset path: src/Dataset.py -> kagglecontest_dataset.__init__ (dataset_path) (default ./data/train.csv)

  • ( twitter API tokens: src/Features.py -> twittersearch_count.__init__ ) (gia' impostate ma si puo' impostare la propria)

ADD NEW FEATURES

Per aggiungere nuove metriche:

  • Scrivere una nuova classe <feature_x> che estende la class e"Feature" nel file Features.py Esempio: class morfological_complexity(Feature): [...]
  • implementare il metodo __init__ con un parametro (namesmap) da salvarsi: dict che contiene i nomi delle colonne del record, da utilizzare per dare lo score (vedere sotto "dataset"; qua basta solo salvarsi il parametro).
  • implementare il metodo score che accetta un parametro (record): fare i calcoli dovuti sui campi del record e poi fornire come risultato un numero.
  • implementare il metodo str, che ritorna il nome della feature (serve per plottare i risultati).
  • Commentare / scommentare le classi gia' presenti nel file Features per escluderle / includerle dalla computazione

ADD NEW DATASET

Per utilizzare un nuovo dataset:

  • Aggiungere una classe <dataset_x> al file Dataset.py
  • Nel metodo __init__, senza parametri, settare la variabile self.namesmap: un dizionario che rappresenta tutti i campi di un record. Esempio: { nome_standard_attributo : nome_attributo_del_dataset, ... } I "nomi standard" degli attributi utilizzati nel resto del software sono (fornire almeno questi):
    • id_attribute: nome dell'attributo con l'identificatore di record
    • fake_attribute: nome dell'attributo che contiene l'etichetta fake / non fake
    • fake_label: etichetta (del campo <fake_attribute>) usata per indicare che il record contiene una fake news (esempio, 1 per le fake)
    • nonfake_label: etichetta usata per indicare che il record contiene una news attendibile (esempio, 0 per le nonfake)
    • text_attribute: nome dell'attributo che rappresenta il testo principale della notizia
    • title_attribute: attributo che contiene il titolo della notizia Un esempio di namesmap, quindi, potrebbe essere: { "fake_attribute": "label", "fake_label": 1, "nonfake_label": 0, "text_attribute": "text", "title_attribute": "title" }
  • Importare i dovuti files e fornire un iteratore sui record: scrivere un metodo __iter__ che ritorna, record per record, un dizionario { nome_attributo : valore }. Esempio: def __iter__(self): for i, record in enumerate(self.values): yield ({ name: value for name, value in zip(self.attributes, record)})
  • Nelle prime linee del main, features_extraction.py, impostare la variabile dataset con il dataset che si vuole usare Esempio: from Dataset import * dataset = kagglecontest_dataset()

RUN

Dare sempre i comandi dalla directory src!

python src/features_extraction.py fa partire il calcolo delle features (quelle non commentate) su tutto il dataset. Se i record sono molti, stoppare quando si vuole con CTRL^C. Non usare la feature "twittersearch" insieme ad altre features, perche' ogni 15 minuti bisogna fermarsi ad aspettare il ripristino del limite di richieste per le api twitter. (Tempo che non viene impiegato per calcolare le altre features, ma rimane tutto fermo). L'esecuzione produrra' un file per ogni feature in cui sono contenuti i risultati delle scores di quella feature, per ogni record: per analizzare i risultati, utilizzare il notebook python "plot_results", che visualizza i risutati con dei grafici.

Ogni esecuzione consecutiva di features_extraction appende ai file gia' esistenti i record processati. Se si imposta, durante la creazione del dataset, un parametro numerico (opzionale; default 0), si puo' ripartire dall'ultimo record processato l'ultima volta: Esempio: dataset = kagglecontest_dataset(0) ... processa fino a quando viene fermato con CTRL^C fino al record (esempio) 1000. Per riprendere a processare dal record 1001 alla prossima esecuzione, modificare: dataset = kagglecontest_dataset(1001)

Per permettere la scrittura a piu' riprese sugli stessi files, e per poter inserire diverse features alla volta (tranne twittersearch, che va sempre da sola) e' stato necessario utilizzare lo stesso nome della feature (definito dall'utente in --str--) per nominare i file di out e per il nome della colonna dello score della feature. Esempio: feature "conta_vocali" -> conta_vocali.str(self): return "conta_voc" produce un file di output nella directory out/ di nome "conta_voc" con 3 colonne: id, label, conta_voc (lo score).

Per questi motivi la stringa che ritorna il metodo --str-- della feature non deve contenere caratteri strani, perche' poi diventera' un nome di file.

plot_results invece visualizza i dati raccolti dalle varie esecuzioni di features_extraction: legge la cartella di out e fa una join di tutti i files presenti (quindi non ci deve essere nient'altro in questa directory, tranne i file di output che interessano). Poi disegna dei box plot e scatter plot.

PARAMETERS

  • morfological_complexity:

    • stanford_parser.raw_parse_sents / parse_sents ?
    • raw_parse_sents si aspetta una lista di frasi: bisogna splittare le frasi del tweet; e' stato fatto con una regex endsentence_punctuation, che potrebbe cambiare
    • SCORE: Una volta ottenuto il parse tree, e' stato usato il metodo height su ogni Tree di frase: essendoci molte frasi in un record, e' stato tenuto il valore massimo fra tutte le frasi nel rec, ma si puo' provare anche con media, o altre metriche. Per ora: valore max fra le profondita' delle frasi di tutto il record
    • MEAN: Per mettere insieme tutti i valori dei reliable / unreliable, e ottenere un numero fra 0 e 1, (in "mean") e' stata usata una funzione tipo media normalizzata: unreliable_normalized_mean = (sum(unreliable_scores) / len(unreliable_scores)) / max_of_all reliable_normalized_mean = (sum(reliable_scores) / len(reliable_scores)) / max_of_all Viene prodotta anche la deviazione standard: numpy.std(numpy.array(unreliable/reliable_scores)) / reliable/unreliable_mean Ma si puo' cambiare
  • lexical_variety:

    • SCORE: utilizata la funzione pattern.metrics.ttr sul testo del tweet; prende in input punctuation (default) e n numero di tokens del testo: usata una regex per splittare con \W+, ma puo' cambiare regex oppure usare un tokenizer per fare il conto
    • MEAN: per ridurre i risultati di reliable / unreliable ad un unico valore 0-1, e' stata usata una semplice media aritmetica normalizzata + deviazione standard (COME MORFOLOGICAL_COMPLEXITY), ma si puo' cambiare
  • twittersearch_count:

    • SCORE: prende le prime text_keyword_len parole dal titolo del record (o, se < 2, dal testo), toglie eventuali caratteri invalidi e fa la ricerca su twitter. Poi, conta il numero di tweets risultanti. Numero di parole da usare per la ricerca puo' cambiare. Regex per caratteri da tenere (nonkeywords_regex) puo' cambiare. Si puo' decidere di togliere anche la punteggiatura
    • MEAN: usa sempre lo stesso degli altri

ARCHITECTURE

  • Main: features_extraction.py Carica il dataset scelto, prepara le strutture dati, acquisisce tutte le features scritte nel file Features.py e poi fa scorrere tutti i record Per ogni record, chiama tutte le features presenti, passandogli il record stesso; le features produrranno uno SCORE basato sul record. Viene scritto un file per ogni feature (con relativo nome della feature), contenente, una riga per record: id, label (fake/non), score I file verranno poi analizzati da un secondo componente, che plottera' i risultati.

  • Features: Features.py In questo file, tutte le "class ...x" presenti verranno caricate come features da utilizzare. Ogni class feature deve avere almeno 2 metodi: score e mean (init con 1 argomento per inizializzare i parametri e per salvarsi la "namesmap" che arriva dal dataset; e --str-- per il nome della feature) SCORE deve ritornare un numero che rappresenta il valore di quella feature applicato a quel record. Le features possono fare qualsiasi tipo di operazione sui campi del record e vengono aiutate da namesmap passata in init, dict che indica il nome degli attributi del record da usare. MEAN indica come raggruppare tutti i valori di unreliable_scores e reliable_scores (2 liste, argomenti) per produrre un unico rappresentante per le classi di notizie reliable e unreliable (uno per lista, quindi mean ritorna tupla di 2 elementi). lavora sulle 2 liste separate di scores, e deve produrre una sorta di media (sempre fra 0 e 1) Volendo quindi aggiungere una feature, basta scrivere una nuova class_y con i metodi score, mean e --str-- che ritornano quanto specificato. Per i parametri basta guardare quelle gia' presenti; per escludere una feature dalla computazione, commentarla.

  • Dataset: Dataset.py Contiene i vari dataset (uno, per ora). Ogni dataset e' un iteratore (--iter--) che fornisce, uno per uno, i record presenti in un certo file o database. La classe dataset inoltre contiene un attributo self.namesmap che indica il mappaggio fra i nomi degli attributi. Volendo aggiungere un nuovo dataset, basta scrivere una nuova class dataset_x con il metodo --iter-- che fa yield record per record; poi un attributo namesmap, dict che associa i nomi standard degli attributi usati nel main (vedere namesmap gia' presenti) coi nomi veri delle "colonne" presenti nel file usato dal dataset; poi, nel main features_extraction.py, modificare la riga dataset = dataset_y() con dataset = dataset_che_si_vuole_usare

==================================================================================================================================================

REQUISITES

ESPLORAZIONE FEATURES

Preso un dataset da kaggle (esempio: https://www.kaggle.com/c/fake-news/data), con notizie vere e false (annotate reliable / unreliable), estrarre diverse features dai testi:

1 - NLP:

  • varieta' lessicale: numero vocaboli diversi, rapportato al resto del corpus
  • complessita' morfologica: profondita' dell'albero di parsing della frase (e non solo, prova anche altre cose piu' fini)

2 - FONTI ESTERNE:

Per ogni news, usa il titolo (o una parte del testo) come ricerca per le api di twitter, per trovare il numero di tweet inerenti alla notizia.