Gerrymandering, Catene di Markov e Quantum Computing

Le elezioni americane, comunque vadano, riportano sempre alla luce l’annosa questione del Gerrymandering, termine intraducibile in italiano, ma che descrive l’abitudine locale, ma che potrebbe attecchire anche dalle nostre parti, di ridisegnare i collegi elettorali maggioritari in maniera non neutra, per favorire un partito politico rispetto a un altro.

L’inventore di questo sistema di ridisegno dei collegi era il politico statunitense e governatore del Massachusetts Elbridge Gerry (1744-1814); egli, sapendo che, all’interno d’una certa regione (dipartimento o stato), ci possono essere parti della popolazione (ben localizzabili) favorevoli a un partito o a un politico (ad esempio, seguendo la dicotomia centro-periferia, giovani-vecchi, ceto basso-ceto medio o alto), disegnò un nuovo collegio elettorale con confini particolarmente tortuosi, includendo quelle parti della popolazione a lui favorevoli ed escludendo quelli a lui sfavorevoli, garantendosi così un’ipotetica rielezione. Le linee di tale collegio erano così irregolari e tortuose, da farlo sembrare a forma di salamandra (da qui la seconda parte del termine “salamander”, appunto “salamandra” in inglese.

Nel corso degli anni, il gerrymandering è stato utilizzato da quasi tutti i partiti che si sono trovati nella posizioni di ridisegnare i distretti elettorali (un compito che spetta alle assemblee legislative dei singoli stati). L’unico ostacolo al gerrymandering è il Voting Rights Act, una delle leggi fondamentali contro la segregazione razziale, approvata nel 1965. In particolare, due commi sono importanti: il primo obbliga gli stati che hanno avuto un passato segregazionista a sottoporre a revisione ogni modifica dei collegi elettorali, mentre il secondo consente a ogni cittadino di appellarsi nel caso che un cambiamento dei confini causi una diluizione del voto delle minoranze.

Se a occhio è facile accorgersi di questa furbata, dal punto di vista concreto, mancava sino a qualche anno fa sia un metodo oggettivo per dimostrare la sua effettiva applicazione, sia per proporre una soluzione “neutra” di disegno dei collegi elettorali.

Adesso però le cose sono cambiate radicalmente, grazie sia alla matematica, sia grazie all’informatica; diversi matematici americani infatti stanno studiando algoritmi per valutare quanto il disegno dei collegi elettorali sia “distorto” rispetto all’optimum.

Metodi, ovviamente tra loro differenti, basati sul Metodo Montecarlo, che per fare il formalista

consiste nel cercare la soluzione di un problema, rappresentandola quale parametro di una ipotetica popolazione e nello stimare tale parametro tramite l’esame di un campione della popolazione ottenuto mediante sequenze di numeri casuali

ma che, ridotto in soldoni riconducibile

a usare algoritmi, che per funzionare, hanno bisogno dell’estrazione di numeri casuali. Il primo a utilizzarli fu Buffon, ovviamente il naturalista francese, non il portiere, che inventò un metodo alquanto originale per stimare il valore del Pi greco.

Immaginiamo di avere un foglio su cui sono tracciate delle righe parallele equi distanziate tra loro e di gettarvi sopra in modo casuale un bastoncino. Il bastoncino può cadere in modo da essere completamente contenuto tra due rette oppure può intersecare una o (se abbastanza lungo) più parallele. Si può dimostrare che la probabilità P che il bastoncino intersechi una retta è data da

2*L/Pigreco*D

dove L è la distanza tra le due rette parallele e D la lunghezza del bastoncino. Se io lancio n volte il bastoncino, posso stimare la probabilità P come

Pn= I/T

dove I è il numero di lanci in cui il bastoncino interseca la retta e T il numero totale di lanci. Ora, essendo un fenomeno puramente casuale, per la legge dei grandi numeri, più sarà maggiore il numero di lanci, ossia n, più il valore di Pn sarà una stima esatta di P.

Per cui, per n elevato, il valore di Pigreco sarà approssimabile da

2*L/Pn*D

ossia

2*L*T/D*I

Ovviamente aumentando i lanci, ossia l’estrazione dei numeri casuali, la stima sarà sempre più precisa. Ora questi metodi, in una disciplina che ricerca il massimo rigore formale, erano visti come poco più che giochini: le cose cambiarono a negli anni Trenta, quando ci si accorse come questo approccio fosse molto comodo, nella risoluzione di problemi legati alla meccanica quantistica.

Il primo a usarlo fu, a detta di Emilio Segré, Enrico Fermi quando studiava a Roma il moto dei neutroni all’inizio degli anni 30.

Stanislaw Ulam usò il metodo Monte Carlo nel ’46. Narra egli stesso:

“… L’idea del metodo Monte Carlo mi è venuta giocando a carte un solitario durante un periodo di convalescenza, nel 1946. Avevo sprecato un mucchio di tempo per calcolare, senza successo, con tecniche combinatorie, la probabilità di riuscita del solitario. Pensai allora che, giocando un centinaio di volte il solitario, avrei potuto stimare questa probabilità con la frequenza delle volte con cui era riuscito, aggirando così con la pratica il pensiero astratto. Questo metodo era ormai possibile, visto l’avvento dei calcolatori veloci. Era ovvio pensare anche a soluzioni simili per problemi legati alla diffusione dei neutroni o di fisica matematica e, più in generale, a come scambiare processi descritti da certe equazioni differenziali con un modello equivalente interpretabile come successione di operazioni aleatorie.”

Il nome però fu inventato da Nicholas Constantine Metropolis, attore per Woody Allen, fisico del progetto Manhattan e papà di Eniac, il primo computer elettronico general purpose della storia per prendere in giro la passione per il gioco d’azzardo del von Neumann, il vate dell’informatica teorica nonché fonte di ispirazione del dottor Stranamore di Kubrick; il nome deriva infatti dallo staterello famoso per i suoi casinò.

Trovato l’approccio, come implementarlo, nel concreto? Con un altro incubo degli studenti di ingegneria, le famigerate catene di Markov, che hanno il problema di essere spiegate assai male. Di fatto, un processo è markoviano, quando, fissato l’istante di osservazione, solo questo determina la sua evoluzione futura, indipendentemente da ciò che è accaduto prima: il futuro, dato il presente, è indipendente dal passato. Se questa evoluzione è discreta, ossia, semplificando, se i valori che può assumere il processo appartengono a un insieme di cui si possono contare gli elementi, esempio la coppia(0,1), la terna (0,1,2) e così via, abbiamo una catena di Markov.

Ora le catene di Markov possono generare un oggetto casuale partendo da un oggetto fisso e evolvendosi in modo graduale, apportando piccole variazioni casuali ad ogni passaggio: per cui, tornando al gerrymandering, queste possono permettere valutarne l’entità confrontando le attuali mappe dei collegi elettorali, con una di quelle generate casualmente, misurandone poi le differenze.

Tuttavia, uno dei limiti delle catene di Markov è che spesso non c’è modo di determinare quanto tempo impiegano per convergere, generando un campione effettivamente casuale, che possa fungere da efficace termine di confronto. Senza conoscere il limite superiore, i ricercatori devono supporre di aver eseguito l’algoritmo per il tempo necessario affinché le loro ipotesi risultanti siano valide, il che rende opinabili le loro conclusioni.

Una soluzione a tale problema l’hanno fornita i matematici Maria Chikina, Alan Frieze e Wesley Pegden, che hanno adottato un approccio diverso nell’utilizzare le catene di Markov, utilizzandola come strumento per dimostrare come le mappe dei collegi elettorali non siano casuali, ma frutto di scelte deliberate da parte dei politici.

I ricercatori hanno iniziato con una mappa attuale dei collegi elettorali della Pennsylvania e l’hanno utilizzata come input di una catena di Markov che incorporava vincoli necessari per creare una mappa totalmente casuale. Questi fattori includevano il fatto che tutti i collegi avessero un numero di votanti simile, che valesse la contiguità territoriale e che vi fosse un rapporto costante tra il loro perimetro e l’area.

Ovviamente, ogni piccolo passaggio casuale, la mappa iniziale ha mutato aspetto; però, ogni cambiamento mutava notevolemente, sia la proprietà statistiche della mappa, sia le distribuzioni dei voti e quindi i potenziali eletti. Questa era un’indicazione di come la mappa iniziale non fosse casuale, altrimenti le proprietà sarebbero rimaste stabili, ma costruita a tavolino per rispondere a uno specifico scopo.

Di fatto, i ricercatori hanno misurato l’entropia informativa delle mappe: di fatto più questa sono causali, maggiore è il disordine complessivo, minore è l’informazione, intesa come misura del vantaggio elettorale di un partito rispetto all’altro. Al contrario, minore è l’entropia, maggiore è la possibilità che sia stato effettuato il Gerrymandering.

Ovviamente, questo copre solo la pars distruens della questione, ossia il mostrare le truffe: il problema della pars costruens, ossia determinare la distribuzione spaziale più equa dei collegi elettorali, ancora più complesso, è ora risolvibile grazie al quantum computing.

Di fatto, diviene un’applicazione particolare dell’algoritmo QUBO, utilizzato ad esempio da TIM per ottimizzazione delle celle 5G.

2 pensieri su “Gerrymandering, Catene di Markov e Quantum Computing

  1. Pingback: La vendetta dello Sciamano: GameStop, Reddit e la Teoria del Caos | ilcantooscuro

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...