logo-studio-medico-multispecialistico-lasermillennium-dr-franco-muzi
logo-studio-medico-multispecialistico-lasermillennium-dr-franco-muzi

Istantanee

Home / Rubriche / Istantanee

Sono stato punito da Facebook

Mag 18, 2023 | Istantanee

Sono stato punito da Facebook, e il mio “Profilo”, è stato sottoposto a limitazioni, perché ho pubblicato delle cose, che “incitano all’odio e alla violenza”.

Stanotte m’ero svegliato alle tre del mattino. Seduto in poltrona, ho pensato bene di fissare con le parole alcune sensazioni che avevo dentro, e ho scritto :

Mi sono preso una notte scomoda

e volevo tagliarle la testa

con un vecchio coltello da pane

che mi bruciava le dita

con la sua lama di denti feroci

come un morso del buio silenzio

che non mi fa sanguinare

ma mi spezza d’assenza.

M’è sfuggita, poi,

con indosso l’odore dei sogni

d’un viaggiatore smarrito.

Spesso, su Facebook scrivo dei versi.

Non li considero poesia, e non ne ho cura eccessiva. Sono scritti su una piattaforma “social”, chiunque li può prendere e far finta che siano suoi, ed è successo in passato, magari succede anche ora, ed io non lo so.

La poesia probabilmente è ben altro. Io non ho sufficienti strumenti critici e tecnici, per giudicare cosa abbia valore poetico, e cosa invece non ne abbia. Ma rivendico la possibilità di scrivere, come personalissimo strumento di racconto, persino con l’ambizione di cogliere qualcosa che abbia un valore anche per altri.

In questo caso, immagino, che la macchina posta a sorveglianza dei contenuti pubblicati su Facebook, abbia incontrato una serie di parole che le hanno fatto scattare un allarme automatico, cui corrisponde una limitazione del mio “diritto di cittadinanza”: “ coltello”; “tagliare”; “testa”…”sangue”…

Potrei essere un terrorista dell’ISIS.

Non mi interessa, qui, riflettere su come abbia “ragionato” la macchina predisposta alla sorveglianza. E’ evidente che c’è un accumulo di “parole pericolose” che, insieme, fanno scattare un livello di allarme, automatico, senza mediazione umana. Credo che qualsiasi impiegato di Facebook avesse potuto leggere quel che ho scritto, non avrebbe rinvenuto in esso,  nulla che avesse a che vedere con l’incitamento all’odio o alla violenza. Magari avrebbe giudicato quel che ho scritto soltanto brutto, o privo di significatività, ma certo non una istigazione ad alcunchè.

Allora, la riflessione andrebbe fatta sul perché l’architettura di Facebook consenta questa situazioni, e quali ne siano le conseguenze.

Facebook ha scelto di intervenire sui contenuti dei suoi utenti, per evitare d’essere coinvolta in questioni politiche, o in cause legali che la costringessero a pagare rilevanti somme di denaro perché considerata responsabile di ospitare contenuti diciamo “discutibili”, per usare un eufemismo.

Si tratta di una scelta di opportunità, dettata essenzialmente da ragioni di mercato.

Non vi è alcuna preoccupazione etica, nella scelta di Facebook.

Facebook tutela un bene per lei strategico: la quantità di persone che interagiscono usando la propria infrastruttura informatica. La quantità di persone, ed i dati che volontariamente ciascuna di esse immette nella infrastruttura informatica, sono il mercato che Facebook vende ai suoi inserzionisti, e agli utilizzatori, occulti o palesi delle informazioni che noi decidiamo di regalare al social network.

Qualsiasi turbativa che rischi di far diminuire queste quantità, è considerata pericolosa e va rimossa.

Se vi fosse una squadra di lavoratori esperti ed appositamente formati ( e sarebbe interessante discutere sui criteri di questa formazione ), chiamata a sorvegliare ciascuno dei contenuti che ognuno di noi affida alla piattaforma e a decidere se tali contenuti rispondano o meno ad un criterio di “pubblicabilità”, significherebbe, da una parte, che Facebook dovrebbe formalizzare una sua “morale”, capace di distinguere cioè tra cosa sia giusto, e cosa sia sbagliato, almeno dal suo proprio punto di vista; dall’altra, significherebbe un investimento enorme, in termini di risorse umane e materiali, che, ovviamente, non conviene fare.

Allora si sceglie di affidare alla macchina, ad un computer cioè, la decisione su cosa sia pubblicabile, e cosa non lo sia. Si tratta comunque di una scelta “morale”, compiuta dal social network. Facebook decide cosa sia etico guardare o leggere, e cosa non lo sia, e ne affida la sorveglianza ad un algoritmo programmato per non avere problemi e per non perdere utenti.

Questo algoritmo però, permette ad una serie infinita di prostitute, o di “bot” ( programmi di computer, studiati per simulare d’essere persone e destinati a compiere azioni ripetitive e standardizzate, come fornire consenso o replicare contenuti, o spargere dissenso e riprovazione ), di contattarmi e di seguirmi.

Questo algoritmo consente di pubblicare le foto, non verificate o verificabili, di un bambino palestinese morto per intervento israeliano ( il che, dal mio punto di vista, non aumenta la possibilità di riprovazione internazionale per la politica di Israele nei confronti del popolo palestinese, ma aumenta solo l’orrore ).

Questo algoritmo consente a persone totalmente irresponsabili e che andrebbero curate perché malate, e pericolosamente malate, di attribuire al vaccino antiCovid ogni morte improvvisa che funesti la cronaca nazionale ed internazionale.

Questo algoritmo consente di pubblicare materiale di propaganda razzista, misogina, omofobica, fascista, mascherata da barzelletta o da citazione storica, o da fatto di cronaca.

Questo algoritmo consente di pubblicare la fotografia di qualcuno, e poi spiegare che si tratta di una persona che ha ucciso, impiccato, o bruciato un cane o un gatto o un capretto, senza che nessuna di queste affermazioni siano verificabili, e senza che chi venga ritratto abbia una possibilità di difesa e senza neppure poter sapere se qualcosa del genere esista, o serva solo ad alimentare un generale clima di risentimento, paura e asocialità.

L’algoritmo del computer, non decide da solo, cosa associare alla “istigazione all’odio e alla violenza”. E’ programmato da uomini, e donne, sulla base di direttive che servono a preservare un mercato fondato sulla quantità. L’algoritmo non compie alcuna scelta morale, in realtà, perché non ha strumenti cognitivi per farlo; serve solo ad evitare le responsabilità che qualcuno possa imputare alla piattaforma social, minandone la credibilità e l’efficacia di penetrazione tra le persone.

In sostanza, il “diritto di cittadinanza”, all’interno di una comunità virtuale, non ha nulla a che vedere con reali scelte morali ed etiche, ma solo con regole di mercato, che servono esclusivamente a preservare il fatturato e gli utili del proprietario di Facebook. E sono tali regole di mercato, che in realtà tutelano uno solo degli attori di mercato, che acquistano lo status di regole morali del social network, e tutto deve ad esse conformarsi.

Se si voglia  essere presenti sul social network, si deve accettare che l’intero universo culturale possa ruotare solo ed esclusivamente intorno al sole del profitto del suo proprietario, e secondo orbite che solo le sue regole consentono.

Credo non sia sufficiente, esserne consapevoli.

Quando un fenomeno assume le dimensioni quantitative di Facebook, esso travalica i confini della materialità basata sui numeri: diviene un fenomeno qualitativo “incommensurabile”, il cui impatto cioè sulla società, sulla cultura, e persino sul modo stesso in cui ragioniamo e sui contenuti di questo ragionamento, è difficilmente misurabile nella quotidianità; forse lo può essere di più su un piano storico, anche se, già ora, alcune valutazioni del potenziale del suo impatto possono essere compiute.

Facebook ha distrutto l’informazione della carta stampata.

E’ la bacheca di Facebook, e di altri social network, a fornire le informazioni che gli utenti giudicano sufficienti per conoscere e decidere del loro mondo. La stampa cartacea è in crisi in tutto il mondo, e, con essa, il principio di autorevolezza. L’informazione fornita da uno scienziato, ha lo stesso peso della informazione fornita da un cittadino che non abbia alcuna competenza nella materia di cui scrive. L’unica differenza tra loro, è fornita dal numero di interazioni che altri compiono sulle loro parole. Se lo scienziato mette in rete il link ad un articolo di una rivista scientifica che spiega perché non sia possibile, allo stato delle conoscenze attuali, prevedere i terremoti, il suo “post” ( complice anche il fatto che Facebook ha tutto l’interesse a mantenere le persone all’interno della propria piattaforma e quindi, tecnicamente – grazie alla programmazione del proprio algoritmo interno – limita la visibilità di qualcosa che, per essere letto porterebbe fuori dalla piattaforma ), probabilmente potrebbe essere letto meno volte del “post” di qualcuno che riferisca, senza contenere link che portino fuori da Facebook, le previsioni di un sito che si dichiari programmaticamente in grado di prevedere i terremoti e che riguardino la possibilità che, ad Aquila, nelle prossime 24 ore possa verificarsi un sisma di magnitudo superiore al quinto grado Richter.

Anche se volessimo limitarci al solo impatto che Facebook ha avuto, ed ha sul sistema dell’informazione, e della costruzione del consenso, dovremmo convenire che non è in alcun modo accettabile che le regole su come si sta su un Social network, sia pure di proprietà privata, siano consegnate al solo proprietario di quel Social network.

E’ una questione, al contrario, che ha a che fare con la qualità della Democrazia, e col pericolo concretissimo, anzi, direi con la certezza, perché è già avvenuto, che la coscienza ed il consenso delle persone siano manipolate impunemente in favore di interessi politici ed economici ben precisi e per nulla provenienti da benefattori dell’umanità.

Il proprietario di Facebook, non accetta che ci si possa iscrivere al suo social network utilizzando ad esempio lo SPID, o analogo strumento che identifichi chiaramente la persona con un “profilo”; non accetta che sia possibile visualizzare sulle bacheche di ciascuno quello che viene pubblicato in base ad esempio ad un criterio di semplice cronologia, e non piuttosto in base ad un criterio di rilevanza, i cui parametri siano tenuti accuratamente oscuri e segreti.

E questi due semplici esempi, certo non esaustivi delle possibilità di intervento, riguardano ovviamente tutti i Social network attualmente disponibili.

E’ opportuna una reazione “luddista”, a questa situazione ?

Vale a dire cioè, se sia opportuno, ad esempio, “uscire”, dai Social network, o non entrarci nemmeno, per evitare d’essere, sia pure involontariamente, complici di un sistema i cui cardini fondamentali di comportamento siano totalmente sottratti ad ogni controllo, nostro, o addirittura degli stessi Stati.

Date le dimensioni del fenomeno, al di là di scelte personali rispettabilissime, personalmente ho finito col ritenere che esserne fuori, in realtà, significhi lasciare campo libero, sia a chi ne faccia un uso inquietante e truffaldino, sia allo stesso sistema che Facebook genera per il proprio esclusivo tornaconto.

Sarebbe necessario invece agire concretamente “dentro” il sistema, ma anche sollecitare una sua regolamentazione a livello nazionale ed europeo. Anche la Stampa, o la Televisione, pur essendo in larga misura dominate da capitali privati, devono sottostare a regole e Leggi, più o meno efficaci, ma comunque esistenti.

Facebook, non è un parco giochi, in cui esserci o non esserci, ed in quale modo esserci, sia neutrale per le sorti della convivenza civile.

Io, ho scritto dei versi, innocui, e sono stato “sanzionato”; domani, magari anche con l’aiuto della cosiddetta Intelligenza Artificiale – che fin quando non diventi “senziente”, è comunque programmata da uomini e donne secondo precisi ordini di interessi – le conseguenze per chi non si attenga a regole che non ha contribuito a formare, di cui è in larga parte ignaro, e sulle quali non ha alcuna possibilità di influire, potrebbero essere molto, ma molto più gravi.

Condividi su

Se hai trovato l’articolo interessante e vuoi discuterne con me compila il form sottostante o contattami all’indirizzo email:
messaggio@luigifiammataq.it

Consenso trattamento dati personali

14 + 3 =