Come far funzionare l’intelligenza artificiale per la pace

27.01.2024


Questo episodio di NV Radio offre informazioni sui modi in cui l'intelligenza artificiale, o AI, potrebbe essere utilizzata per sostenere la pace e la nonviolenza. Stephanie e Michael danno il benvenuto alla dottoressa Heather Ashby dell'Istituto statunitense di pace, un'esperta di tecnologia e della sua intersezione con il governo e la politica. La loro discussione esplora i modi in cui l'intelligenza artificiale potrebbe essere utilizzata sia nel male che nel bene nella sfera pubblica. Da questa duplice possibilità nasce l'urgenza di capire come orientarla verso la pace. Pur consapevole dei pericoli inerenti all'intelligenza artificiale, il dottor Ashby ricorda agli ascoltatori che:

L'idea originale quando sono nati i social media era quella di aumentare i beni comuni in modo da poter incontrare persone in diverse parti del mondo, o anche nel tuo paese, nel tuo stato, che normalmente non avresti incontrato. [A questo punto, lo scopo dell'intelligenza artificiale deve essere] quello di mantenerlo e provare a sfruttare questi strumenti per poterlo fare. E per creare connessioni e costruire sostegno dalla base.

Non dobbiamo temere il potenziale danno che l'intelligenza artificiale potrebbe causare finché lavoriamo deliberatamente per sviluppare la sua capacità di riunire le persone, raccogliere e diffondere informazioni affidabili come un modo per promuovere la pace, aumentare la comprensione e sostenere le comunità in tutto il mondo.

Stephanie: Lo spettacolo di oggi riguarda l'intelligenza artificiale e le sue potenzialità e implicazioni per la costruzione della pace e la nonviolenza.

La tecnologia dell'intelligenza artificiale sta avanzando più velocemente che mai e a questo punto non è sufficiente tenere il passo attivamente per sapere di cosa si tratta o quale vocabolario viene utilizzato al suo interno, dobbiamo elaborare attivamente strategie e implementare meccanismi per utilizzarla per scopi più elevati rispetto alla violenza e alla distruzione. . La cooptazione di questa tecnologia per la violenza è molto probabile e dobbiamo trovare un modo per cambiare qualcosa... Quindi, imparare la conversazione è solo una parte della responsabilità che abbiamo nel mondo della pace e della nonviolenza, possiamo trovare modi per l'intelligenza artificiale per contribuire a lavorare per la pace. È una conversazione davvero emozionante, anche il Papa in occasione della Giornata mondiale della pace ha concentrato le sue osservazioni su questo argomento. . .

Mi sono rivolto allo United States Institute of Peace per una discussione con la dottoressa Heather Ashby, che è la direttrice associata del programma USIP sulle tecnologie dirompenti e l'intelligenza artificiale.

La dottoressa Ashby è entrata all'USIP dopo sette anni presso il Dipartimento per la sicurezza nazionale, dove ha lavorato all'intersezione tra sicurezza nazionale e affari internazionali. Si è concentrata anche sulle relazioni USA-Russia.

I suoi interessi di ricerca nel campo degli affari internazionali includono la disinformazione, la disinformazione e la disinformazione, nonché l'incitamento all'odio, la propaganda, l'intelligenza artificiale e la sicurezza digitale. Il dottor Ashby effettua anche ricerche e pubblica sulle attività russe nel sud del mondo. sebbene il focus di questo spettacolo sia l'intelligenza artificiale.

Passiamo al dottor Ashby.

Quindi, dottoressa Heather Ashby, lei fa parte dell'Istituto americano per la pace. Puoi raccontarci qualcosa di questa istituzione e di come sei arrivato a farne parte?

Heather: Sì, nessun problema. Quindi, l'Istituto statunitense per la pace esiste, almeno quest'anno, da 40 anni. È stato creato durante la Guerra Fredda, quando a livello globale ci trovavamo in un contesto di conflitto diverso.

E da quel momento, l'istituto si è evoluto per affrontare i conflitti e il modo in cui sono cambiati nel tempo, così come è cambiata nel tempo la posizione degli Stati Uniti nel mondo. Pertanto, l'istituto si concentra sulla prevenzione, mitigazione e risoluzione dei conflitti violenti laddove si verificano nel mondo. E così, abbiamo uffici in tutto il mondo, in particolare in Africa, Asia e America Latina, con persone nelle comunità, che lavorano con organizzazioni della società civile di base, nonché costruttori di pace locali per aiutare ad affrontare i conflitti che stanno affrontando.

Stephanie: È stato fondato più o meno nello stesso periodo dei Peace Corps? Sono legati in qualche modo?

Heather: Questi erano sforzi separati. Per l'Istituto di Pace degli Stati Uniti, si è trattato di un movimento di base di organizzazioni religiose e veterani di guerra che si sono riuniti e hanno affermato che, sulla base delle esperienze e di ciò che hanno osservato negli anni '60 e '70, in particolare, gli Stati Uniti avevano bisogno di un Istituto di Pace per aiutare a educare il pubblico sulla pace.

Michael: Sì, in realtà facevo parte di quel movimento. In realtà avevamo come obiettivo un dipartimento di pace che fosse parallelo al dipartimento di Difesa, che in realtà è un dipartimento di guerra. Abbiamo quindi considerato l'USIP una sorta di compromesso che abbiamo accettato.

Heather: Sì, beh, è bello sentirlo - che tu abbia quell'esperienza partecipando allo sforzo di creare l'Istituto della Pace. E direi che stiamo cercando di essere all'altezza di quegli ideali originali rendendoci più disponibili al pubblico. Quindi, le persone che vengono a Washington, vogliono guardare i memoriali sul National Mall - perché la nostra sede è alla fine del National Mall prima di andare in Virginia - semplicemente entrando, guardando l'edificio, parlando con i nostri esperti.

E abbiamo mostre sulla pace e sul conflitto, come immagini di conflitti e storie sul conflitto che lo accompagnano e aspetti interattivi di quelle mostre disponibili online. Quindi, stiamo davvero intensificando l'educazione del pubblico sulla pace.

Michael: Davvero felice di saperlo.

Stephanie: Allora, volevo parlarti oggi della tua ricerca sull'intelligenza artificiale. Hai scritto un articolo per l'US Institute of Peace, A Role for AI in Peacebuilding. Spero che potremo entrare in questo argomento e discuterne. Ma prima, la mia domanda è: cosa ti ha portato a svolgere quell'incarico, quell'interesse per il ruolo dell'intelligenza artificiale.

Heather: Per quanto mi riguarda, sono sempre stata interessata alla tecnologia. Quando lavoravo per il Dipartimento per la Sicurezza Nazionale, quello era un aspetto del mio lavoro: lavorare a livello nazionale e internazionale. Ma si stava guardando più alla prospettiva statale della criminalità informatica, della sicurezza informatica e al modo in cui le questioni informatiche/tecnologiche influiscono sulla sicurezza nazionale.

E così, lavorando presso l'US Institute of Peace, si sta adottando un punto di vista opposto sulla questione di come i partner locali e altre organizzazioni sul campo possono lottare per la pace e utilizzare la tecnologia perché fa parte della guerra, o su come avere più di un coinvolgimento attivo nella guerra.

E così, ho iniziato con la tecnologia di rete attraverso – anche, la disinformazione e la disinformazione. E così, con l'avvento dell'intelligenza artificiale generativa, così come il ruolo che l'intelligenza artificiale svolge nella moderazione dei contenuti sulle piattaforme dei social media, stavo pensando più all'intelligenza artificiale e alla costruzione della pace e a come i costruttori di pace potrebbero usare la tecnologia, ma anche prepararsi per come è attualmente usato e a cosa potrebbe servire in futuro.

Stephanie: Bene, passiamo all'intelligenza artificiale. Voglio iniziare con una prospettiva in cui forse semplicemente non lo sappiamo. Per portare i nostri ascoltatori lungo il viaggio con noi in modo che possiamo arrivare tutti sulla stessa pagina. Cominciamo quindi con la discussione sull'intelligenza artificiale generativa. Cosa significa esattamente?

Heather: L'intelligenza artificiale generativa è più ciò di cui sentiamo parlare molto e si basa su ampi modelli linguistici che raccolgono molti dati, principalmente da Internet, anche se non siamo chiari sui set di dati che molte di queste aziende utilizzano . Ed è costruito in modo da interagire con le persone.

Quindi, potresti porre domande, chiedergli di fare delle cose. Puoi fargli esaminare i dati per te, potrebbe scrivere un articolo e così via. E quindi, questa è la natura dell'intelligenza artificiale generativa. Ti aiuta. Interagisce con gli esseri umani per svolgere determinati compiti.

Stephanie: Quindi, nell'intelligenza artificiale generativa, discuti alcune delle sfide che sta ponendo. Diciamo, ad esempio, nelle elezioni che si terranno nei prossimi anni. Il modo in cui possono essere manipolati. E quindi, in che modo ciò influisce sulle elezioni così come sulla disinformazione, sulla disinformazione, sulla disinformazione?

Heather: Sì. E penso che questa sia la prima ondata di elezioni in cui vedremo davvero la portata del ruolo che l'intelligenza artificiale generativa può svolgere. Poiché sono così disponibili, ChatGPT riceve molta attenzione, ma abbiamo modelli open source. Sono diversi prodotti di intelligenza artificiale generativa basati su determinati argomenti di ricerca disponibili là fuori.

E quindi chiunque può davvero accedervi perché alcuni di essi sono disponibili gratuitamente. Se desideri funzionalità più avanzate, potresti pagarle. E così, potresti semplicemente inserire informazioni e ciò che ti torna in mente potrebbero essere informazioni imprecise sulle elezioni.

Negli ultimi due mesi sono stati condotti alcuni studi secondo cui quando un'organizzazione cercava di inserire le informazioni di un individuo su un'elezione in un particolare paese, produceva informazioni imprecise sulla posizione dei candidati, dove rivolgersi al sondaggi.

E quindi, in una situazione ideale, dovrebbe aiutare le persone ad affrontare la ricerca online in un modo diverso. Con Google, riceverai semplicemente un sacco di siti Web, Bing o altri motori di ricerca.

Con l'intelligenza artificiale generativa, ti risponderà e la speranza è che ti fornisca informazioni accurate e collegamenti a dove poterle ricontrollare. Ma questo non è sempre il caso dei diversi strumenti software. E quindi, questa è un'area che potrebbe avere un impatto sulle elezioni se le persone la utilizzassero per cercare di trovare informazioni sui candidati, dove andare alle urne e quando si terranno le primarie. Almeno nel caso degli Stati Uniti.

Ci sono anche delle sfide, a seconda della lingua. E poiché gran parte di Internet è in lingua inglese, non solo l'intelligenza artificiale generativa, ma anche altre aziende tecnologiche, quando cercano di produrre prodotti in altre lingue – in particolare piattaforme di social media in termini di moderazione dei contenuti – devono affrontare sfide perché possono non cogliere le sfumature della lingua e il modo in cui la lingua avviene, si sposta e si evolve all'interno delle diverse comunità.

Quindi, l'arabo parlato in Egitto non sarà lo stesso tipo di arabo parlato in Libia. E quindi avere la tecnologia in grado di rilevarlo è ancora lontano. Ma è là fuori. E quindi, se non parli inglese e stai inserendo cose in questi sistemi, potrebbero presentarsi tutta una serie di sfide. E se lo fai per le elezioni mentre continua a diffondersi e svilupparsi in vari paesi, ciò potrebbe anche causare ulteriore confusione.

E riduce i costi per chiunque voglia diffondere disinformazione rendendo più facile per loro replicare tali informazioni. Quindi, con l'intelligenza artificiale generativa, mentre noi, solo l'utente medio, potremmo semplicemente entrare e digitare una domanda, potresti anche accedervi, collegarla a un altro prodotto software e aiutare a generare più informazioni da esso. Quindi, è dietro le quinte che aiuta qualunque cosa il prodotto stia cercando di fare.

E se qualcuno vuole avere un sacco di informazioni inesatte, potresti interrogarle. Ma la speranza è che nell'utilizzo di questi prodotti ci siano alcuni termini di servizio che lo impediscano, ma potresti sempre aggirare il problema, e lo stiamo vedendo con i social media nel corso degli anni e attualmente.

Stephanie: cosa intendi con questo? Sui social?

Heather: In termini di, non è lì per dire: "Ehi, queste sono informazioni reali o informazioni imprecise". E questo è lo stesso tipo di sfide che si stanno verificando con l'intelligenza artificiale generativa. Anche se alcuni software direbbero: "Oh, per favore ricontrolla le tue informazioni". Ma dove ricontrollerai le informazioni? Lo sta già prelevando da Internet. Quindi, andrai semplicemente a un altro motore di ricerca che potrebbe fornirti informazioni imprecise.

E quindi, spetta all'utente determinare cosa è reale e cosa è impreciso, e tu devi fare la ricerca. E se non hai le competenze necessarie per farlo, allora si rivelerà una sfida.

E poi da lì si diffonde. Qualcuno potrebbe postarlo sui social media e da lì si moltiplicherà. O semplicemente l'interazione di persona, i messaggi di testo, le app di messaggistica come WhatsApp, Telegram, potrebbero diffondersi.

Stephanie: Ed è interessante perché mentre affrontiamo queste sfide, sembra che tu abbia anche pensato allo spazio per opportunità per gli operatori di pace e i costruttori di pace di poter intervenire e dire: "Okay, quindi questo è un problema . Questo è un rischio potenziale che hai potuto evidenziare. Quindi, cosa possiamo fare per contribuire a cambiare la situazione o trasformare la diffusione della disinformazione?" Giusto?

Heather: Sì, e penso che tu debba costruire partnership con aziende di intelligenza artificiale. Penso che, anche se in alcuni settori, l'intelligenza artificiale sia più avanti. Come in finanza, se richiedi una carta di credito online, non c'è una persona che monitora la tua richiesta. Hanno creato un intero sistema, un sistema software, per farlo automaticamente e risponderti in un minuto o meno, riguardo alla tua approvazione o meno. E per esaminare i fattori di rischio in base al loro algoritmo. Quindi, questo è molto più avanti.

Ma guardando all'intelligenza artificiale generativa e all'espansione dell'intelligenza artificiale in altri settori, questa potrebbe essere un'opportunità in un modo in cui i costruttori di pace e altri non sapevano cosa sarebbero diventati i social media. Ora lo sappiamo, quindi stiamo cercando di recuperare il ritardo. Ora c'è l'opportunità di interagire con quelle aziende di intelligenza artificiale, nonché con organizzazioni no-profit, organizzazioni di ricerca, istituzioni accademiche che dispongono di fondi, che hanno investito in questo per iniziare a guardare il potenziale di conflitto di questi strumenti di cui stanno parlando e per arrivare a un insieme comune di termini.

Perché quando parlano di responsabilità per le aziende tecnologiche, non è lo stesso modo in cui i costruttori di pace usano il termine responsabilità, che potrebbe indicare atrocità di massa, crimini di guerra. E quindi, avere un modo di parlare la stessa lingua in modo che ciascuna parte si capisca e riunirsi per avere queste discussioni, penso sia molto importante.

E se iniziassimo adesso, come costruttori di pace, potremmo iniziare ad avere un impatto e ad apportare quei cambiamenti prima di trovarci dall'altra parte nel tentativo di tornare indietro.

Michael: So che uno dei concetti che è stato importante per noi nel mantenimento della pace, in particolare, è l'abbattimento delle voci. E posso immaginare che questo sia molto più complicato con l'intelligenza artificiale perché le voci possono diffondersi molto più rapidamente e in modo molto più pervasivo. Hai qualcosa da dire a riguardo?

Heather: Sì. Ho sentito che questo è il problema. E così, ci abbiamo pensato all'Istituto statunitense per la pace. E quindi, un modo che ho considerato di affrontare è la formazione delle forze di pace su questo tipo di questioni e la messaggistica in anticipo prima che le forze di pace vengano schierate e la continuazione di tale messaggistica mentre sono presenti. E trasmettere i messaggi in modo che le persone ricevano le loro informazioni, non come pensi che dovrebbero ricevere le loro informazioni.

Quindi, se comunicano via radio, allora trasmettetelo via radio. Se è televisione, è televisione. Se è tramite messaggio di testo, farlo in questo modo. E l'intelligenza artificiale potrebbe essere utile in termini di produzione di massa di testi per raggiungere un ampio segmento della popolazione che possiede telefoni cellulari che sono principalmente basati su testo e non hanno app scaricabili come Facebook e così via.

E quindi un altro modo è comprendere una società quando sei lì e capire come avviene la comunicazione, come determinano quali sono le fonti veritiere, in modo da poterlo sfruttare all'interno di una comunità. Se si tratta di attori religiosi, se si tratta di altre organizzazioni no-profit, se servono istituzioni governative. Quindi, lavorare con loro. Quindi, si tratterebbe di un approccio più globale che semplicemente schierare le forze di pace e dire di andare là fuori ed eseguire la propria missione.

Dovrà essere più lavoro di gambe e comprensione della società e del modo in cui le persone operano e comunicano tra loro per assicurarsi che i messaggi che stanno arrivando raggiungano le persone che potrebbero essere suscettibili a quelle voci.

Stephanie: Parliamo di deepfake. Cosa sono, perché rappresentano una minaccia e come si collegano all'intelligenza artificiale?

Heather: Sì. I deepfake sono diventati sempre più un problema nel corso degli anni. E questa è la capacità di utilizzare software per manipolare immagini, voci e testo per travisare una persona, ciò che dice e così via. E così, con i deepfake, potrebbe essere qualcuno che usa uno strumento di intelligenza artificiale per unire insieme le immagini e far dire a una persona in un video parole che non sono mai uscite dalla sua bocca. Oppure potrebbe essere inserito nelle immagini persone che non dovrebbero essere insieme nell'immagine per travisare ciò che potrebbe essere accaduto.

Quindi, se metti Zelenskyj e Putin e dici che si sono incontrati e hanno discusso su come risolvere la guerra in Ucraina, allora è un deepfake e potrebbe circolare. Immagino che il pubblico russo ci crederebbe più di quello ucraino. Ma questa è una situazione in cui potrebbero essere utilizzati i deepfake. Potrebbe essere attivo nelle elezioni che si avvicinano quest'anno.

In passato è stata quella famosa con Nancy Pelosi, in cui sembrava che biascicava le parole. E questo prima dei sistemi di intelligenza artificiale più avanzati di cui stiamo parlando ora. E quello era il 2019, credo, o il 2018 – coinvolgendo l'ex presidente Pelosi.

E così, con l'evoluzione della tecnologia, potremmo vedere i deepfake diventare sempre più sofisticati. E si è discusso se l'intelligenza artificiale potesse servire come strumento per identificare i deepfake, ma l'ironia è che man mano che l'intelligenza artificiale diventa più evoluta, potrebbe avere difficoltà a identificare i propri prodotti per individuare cosa è falso e cosa è reale.

Stephanie: Perché le persone interessate alle donne, alla pace e alla sicurezza dovrebbero interessarsi all'argomento dei deepfake?

Erica: sì. Le maggiori vittime dei deepfake sono le donne e le immagini pornografiche femminili. Quindi, prendi la testa di una donna a cui stai prendendo di mira e mettila sul corpo di un'altra donna e condividi quelle immagini che non sono consensuali. E quindi, questo è incredibilmente fastidioso. Oltre al targeting online generale delle donne. E quindi, l'aspetto della cattiva/disinformazione che non riceve abbastanza attenzione è la malinformazione. E quindi, questo significa prendere dettagli concreti su una persona e metterli là fuori per farle del male.

Quindi questo è doxing. Questo significa schiacciare, in termini di chiamare una stazione di polizia e dire che c'è una situazione di ostaggi a casa di una persona, quindi mandano la squadra SWAT e agenti pesantemente armati a casa di una persona. Quando arrivano lì, si rendono conto che questa non è la situazione che si è verificata. Ma causa molti pericoli. Inserisci indirizzi online, e-mail che potrebbero quindi portare più persone ad attaccare l'individuo.

E quindi, questo è importante tra le donne attive nelle comunità di gioco, donne che sono nella sfera pubblica. A causa di questi attacchi, si rischia di ridurre la presenza delle donne nella sfera pubblica. Ci pensiamo molto in Europa e negli Stati Uniti perché è lì che si svolge la maggior parte della ricerca, quindi è necessario svolgere ulteriori ricerche su ciò che accade alle donne nel sud del mondo che sono prese di mira. O donne che sono semplicemente online e vogliono impegnarsi in quel tipo di comunità online, beni comuni online, ma vengono prese di mira da uno stalker, o da qualcuno nella loro famiglia, o semplicemente da qualcuno che vuole avere una relazione con loro e sono state rifiutate. . Ciò rende più semplice individuarli.

Penso che uno degli aspetti più critici delle donne, della pace e della sicurezza sia il fatto che, se vogliamo far avanzare la democrazia, è necessario che le donne partecipino alla società. E questo metterà seriamente a repentaglio la loro partecipazione alla sfera pubblica. Ci sono molte questioni che mi appassionano, ma soprattutto questa – e assicurarci di combatterla. Non ha ricevuto abbastanza attenzione da parte delle società di social media su questa particolare natura del targeting. E oltre a prendere di mira le donne, si tratta anche di persone appartenenti a gruppi e comunità emarginate.

Stephanie: Questo problema viene affrontato in modo significativo alle Nazioni Unite, lo sai?

Erica: sì. Sta prendendo piede. Non sono solo le Nazioni Unite, l'OSCE e altri governi in tutto il mondo a esaminare la questione in modo più approfondito. Nina Jankowicz è una delle leader nel portare avanti questo processo e nel portare l'attenzione internazionale su di esso. Quindi, se tu e i tuoi ascoltatori siete interessati a scavare più a fondo, direi di guardare Nina Jankowicz che è lei stessa vittima di malinformazione e disinformazione mentre cercava di svolgere un ruolo attivo nel governo degli Stati Uniti su come possiamo combattere questo e elaborare una strategia più olistica per questo.

Direi di seguirla. Ci sono anche altre organizzazioni, She Persisted, che si occupano di questi argomenti. E potresti seguire la loro ricerca e come sono molto attivi a livello globale con le organizzazioni della società civile e con le organizzazioni internazionali su questi argomenti. E penso che nelle discussioni sull'intelligenza artificiale ci siano diverse persone che sollevano questo argomento come una questione su come rendere i deepfake più diffusi, più mirati alle donne.

Stephanie: Questo è davvero affascinante e c'è una discussione così ampia. Voglio solo passare all'argomento successivo, che riguarda la sorveglianza e il ruolo dell'intelligenza artificiale e ciò che i costruttori di pace devono sapere su cosa potrebbe andare storto e cosa devono fare.

Heather: Sì, con la sorveglianza, sta già accadendo adesso e una delle sfide con l'intelligenza artificiale e le discussioni sull'intelligenza artificiale è che ci sono gruppi di persone e organizzazioni che vogliono concentrarsi sul rischio esistenziale. Quindi, come potresti costruire una bomba biotecnologica, l'intelligenza artificiale usando armi nucleari. Ma si stanno concentrando meno sui danni quotidiani, e questo rientra nella tecnologia di sorveglianza.

È il riconoscimento facciale. Ha la capacità di setacciare cumuli di dati raccolti attraverso il sistema di telecamere e altri mezzi. Mentre in precedenza c'erano persone che si sottoponevano a controlli e assistenza tecnica con un sistema software, ma ora lo rende più semplice. E quindi potresti pensare all'intelligenza artificiale come: uno dei principali utenti dell'intelligenza artificiale è la capacità di esaminare cumuli e cumuli di dati per cercare modelli, tendenze e individuare cose che sarebbero più difficili se lo facesse una persona.

E quindi, questo è uno dei grandi pericoli della tecnologia di sorveglianza, è che migliora la tecnologia di sorveglianza perché potresti raccogliere più dati sugli individui, sulle comunità, e allertare chiunque la stia utilizzando, progettandola, su varie questioni.

E così, potresti prendere il riconoscimento facciale degli attivisti non violenti e avere un'immagine che hai di loro durante una protesta o in qualche altro modo in cui sono in pubblico. E stai cercando di identificarli, quindi setaccia tutta Internet alla ricerca di immagini simili per cercare di identificare la persona. Questo è ciò che potrebbe accadere con la tecnologia di sorveglianza basata sull'intelligenza artificiale. E ci sono diverse aziende che lo fanno.

D'altro canto, ci sono alcune organizzazioni che studiano come questi strumenti potrebbero essere utilizzati per aiutare nel campo della costruzione della pace. In Ucraina si sta cercando di aiutare a identificare gli autori di crimini di guerra attraverso il riconoscimento facciale. Quindi, identificare chi erano i russi che hanno commesso i crimini di guerra in Ucraina.

E quindi, in tutto ciò che potrebbe essere completamente orribile e terribile, ma c'è un aspetto in cui potrebbe essere utile, e dobbiamo solo assicurarci che sia fatto in un modo responsabile.

Stessa cosa con la tecnologia dei droni. Potresti usarlo in modo non armato per monitorare i cessate il fuoco e il confine delle linee del cessate il fuoco per evitare di mettere lì troppe persone che potrebbero essere colpite dalla violenza in termini di monitoraggio. Quindi, questo è un aspetto.

E così, con le immagini dei droni, potresti fare in modo che l'intelligenza artificiale esamini quelle immagini e individui qualsiasi tipo di discrepanza invece di avere qualcuno seduto al computer e monitorare tutte queste immagini che arrivano attraverso i droni.

Stephanie: Sì, immagino anche che tu abbia qualche prospettiva, venendo di nuovo dal Dipartimento per la Sicurezza Nazionale, dove potrebbe essere una meraviglia, sai, identificare i "terroristi".

Heather: Sì, e chi è una minaccia. La cosa principale su cui il governo esamina è come definire una minaccia. Potresti inserire fattori in un algoritmo e l'intelligenza artificiale potrebbe uscire e raccogliere dati per esaminare i modelli di comportamento delle persone online.

Con i sistemi d'arma, penso che siano i droni, e poi avremo omicidi mirati che avverranno attraverso il riconoscimento facciale attraverso la tecnologia dei droni. Il monitoraggio delle immagini satellitari – non è tanto un sistema d'arma, ma qualcosa di più – fornisce più dati per aiutare i militari in qualunque azione siano impegnati.

Ci sono sempre discussioni sulle armi biotecnologiche. L'intelligenza artificiale lo sta usando e sta fornendo alle persone i materiali per sviluppare le capacità, oltre a cosa fare quando i sistemi d'arma sono autonomi e chi è ritenuto responsabile. Quindi, ci saranno molte domande nel campo della responsabilità: come ritenere le persone responsabili in questo spazio?

Stefania: sì. E tu sottolinei che non possiamo semplicemente sederci e desiderare che tutto questo finisca o che, sai, continui ad avanzare, l'intelligenza artificiale e il suo rapporto con le armi. Pertanto, è della massima importanza iniziare a trovare modi per creare spazi di responsabilità, capire come potrebbero essere utilizzati, scenari e come impedire che vengano utilizzati per scopi sbagliati.

Adoro il modo in cui – sì, esistono, quindi perché non possiamo usarli per la pace, allora? Perché non possiamo usarli per promuovere il disarmo?

Heather: Sì. Esattamente. E la sfida di investire così tanto denaro, come sapete, nelle capacità di guerra e molto meno in quelle di pace. Il budget per l'Istituto statunitense per la pace è di 55 milioni di dollari. E, naturalmente, sappiamo che il budget per il Dipartimento della Difesa ammonta a centinaia di miliardi.

Stephanie: Beh, ci sono stati alcuni summit. Inoltre, ce n'era uno anche nell'UE?

Heather: Sì. E l'UE sta lavorando alla legislazione sulla regolamentazione dell'intelligenza artificiale, e quindi, stanno ancora andando avanti. Si sta avvicinando alla finalizzazione dall'ultima volta che l'ho controllato. E simile a quello che stavano facendo in termini di dati, privacy, e-commerce. Penso che l'UE sia all'avanguardia in termini di approccio multinazionale alla regolamentazione e alla riflessione su questi strumenti.

E anche se non è perfetto, lo stanno ancora pubblicando. Ed è utile che provenga dagli europei a causa del modo in cui operano le aziende tecnologiche. Che si concentrino più intensamente, almeno sulle società di social media, sui mercati in cui sono molto attive e sotto il massimo controllo. E questo vale sia per gli Stati Uniti che per i paesi europei, e meno preoccupati dei danni che si stanno verificando in Myanmar, Etiopia o Sri Lanka.

La speranza è che, con la capacità dell'UE di provare a mettere dei guardrail attorno a questo problema, guardando al software di riconoscimento facciale che potrebbe essere utilizzato dalle istituzioni di sicurezza o dalle forze dell'ordine si potrebbe riprendere altrove in diverse parti del mondo mentre gli Stati Uniti sta ancora avendo quei dibattiti. Ma almeno ci sono membri del Congresso che attirano l'attenzione su alcune di queste sfide.

Per quanto riguarda il vertice del Regno Unito, ciò che si sperava era una maggiore comprensione di una via da seguire che non necessariamente si è concretizzata nella conclusione. Era semplicemente qualcosa di più che la conversazione dovesse avere luogo. La sua portata era limitata in quanto si concentrava solo su quello che chiamano il modello di frontiera.

Quei grandi modelli linguistici che solo poche aziende e istituzioni possono produrre a causa della quantità di denaro investita nella costruzione della potenza di calcolo, nella progettazione degli algoritmi per raschiare Internet o creare i propri set di dati – avevano una portata molto più ristretta.

Ciò che attendo con ansia è il comitato consultivo delle Nazioni Unite e quali conclusioni raggiungeranno in vista del Summit del futuro che avrà luogo a settembre di quest'anno. Hanno fatto una collaborazione molto internazionale di persone per quel consiglio provenienti da diverse organizzazioni, paesi, istituzioni per conversare su diversi aspetti dell'intelligenza artificiale, collegandosi agli obiettivi di sviluppo sostenibile che sono stati sviluppati anni fa e per vedere quali strutture di governance internazionale potrebbero esserci attorno all'intelligenza artificiale.

Questo è qualcosa da monitorare sicuramente quest'anno, così come il lavoro che sembra che il Vaticano e il Papa stiano cercando di guidare. Il Papa ha inviato un messaggio il mese scorso in occasione della Giornata internazionale della pace, parlando del ruolo dell'intelligenza artificiale e di come nel 2024 avrebbero compiuto uno sforzo maggiore per trovare modi di pensare all'intelligenza artificiale nello spazio di pace.

Consiglierei alle persone di continuare a seguirli: le Nazioni Unite e ciò che il Vaticano e il Papa stanno discutendo sull'intelligenza artificiale e convocando le persone insieme.

Stephanie: Beh, mi sembra che alla base di tutto questo ci sia la sensazione che dobbiamo avere fiducia in qualcuno o in qualche ideale. E penso che senza quella fiducia sia davvero difficile decidere se, sai, chi sta dicendo la verità e quale verità vogliamo seguire? Quindi, come si costruisce la fiducia in queste discussioni anche in termini di utilizzo dell'intelligenza artificiale per la costruzione della pace e essenzialmente per il mantenimento della democrazia, giusto? Poiché stiamo valutando se la situazione sfugge al controllo, sembra che stiamo andando verso un mondo di maggiori danni, violenza e uso autoritario di cattiva informazione e disinformazione, giusto? Quindi, di chi ci fidiamo in questo processo?

Heather: Direi i costruttori di pace perché alla fine, con tutta questa tecnologia, è difficile sostituire l'interazione da persona a persona e la natura della costruzione della pace è interagire con le persone, da persona a persona. Penso che questo dovrebbe essere un aspetto fondamentale. E ciò che i costruttori di pace potrebbero fare è monitorare lo spazio online per comprendere le narrazioni che si stanno verificando, chi sono le persone che compiono atti di bullismo e prendono di mira le persone online, magari entrando in contatto con loro.

Alcuni di loro non sono robot o un governo straniero. Sono individui che lavorano in collaborazione tra loro. E quindi, potremmo organizzare interventi con queste persone per cercare di ridurre le loro attività dannose online? Questo è un altro aspetto.

Penso che combinare il lavoro sul campo con il monitoraggio dello spazio tecnologico sarà fondamentale. E capire come le società distinguono o identificano ciò che è vero e ciò che è un'informazione fuorviante, perché non sarà la stessa cosa. Ciò che accade nella Repubblica Centrafricana, e di cui ci si fida come fonti, non è la stessa cosa che accade negli Stati Uniti. Penso che dobbiamo affrontarlo in modo da essere in sintonia con le sfumature di ciascuna società.

Stephanie: Hai detto che se avessi avuto più spazio nel tuo articolo, avresti detto molto di più. Quindi, vorrei darti un po' di spazio qui per dire cosa non è stato inserito nel tuo articolo o cos'altro ritieni sia importante.

Heather: Penso che si debba pensare di più a come combinare la tecnologia con l'attività sul campo delle persone. Ho questa idea – ma non abbiamo fondi per implementarla – di mappare semplicemente l'ecosistema dell'informazione all'interno dei paesi in cui siamo attivi come costruttori di pace. E, per basarmi su quanto ho detto prima, per capire dove le persone ricevono le loro informazioni, dove vanno per le notizie, chi sono gli influencer online che modellano le opinioni delle persone e se possiamo interagire con quegli individui.

Di che tipo di istituzioni governative le persone si fidano o hanno bisogno di fidarsi in termini di strutture di governance? L'altro aspetto è se saremo in grado di sostenere i sistemi giudiziari perché giocheranno un ruolo chiave nel contenzioso su ciò che avviene online. Una delle cose che queste aziende tecnologiche non vogliono è che tutti questi paesi elaborino regole e strutture diverse su cosa dovrebbe essere online, su come moderare i contenuti perché sarà più difficile per loro operare.

E quindi, se potessimo costantemente spingere molte di queste questioni all'interno dei sistemi giudiziari e sostenere i sistemi giudiziari in vari paesi, allora potremmo contribuire ad alleviare la tensione al riguardo. C'è un caso in corso in Kenya – due casi. Uno è stato portato da attivisti in Etiopia riguardante il targeting online di un individuo in Etiopia che è morto dopo aver contattato Facebook e detto: "Questa persona è stata presa di mira. Puoi fare qualcosa?" Non hanno fatto nulla. E così, stanno portando la causa in Kenya perché è un hub per la moderazione dei contenuti per Facebook in quel paese.

L'altro sono gli stessi moderatori dei contenuti, che sono keniani e il trauma che sopportano. La moderazione dei contenuti avviene con l'intelligenza artificiale oltre alle persone che rivedono i post e insegnano all'intelligenza artificiale cosa dovresti segnalare.

E quindi, questo è importante in termini di come si svolgerà il caso perché non sta ricevendo la stessa attenzione che, ad esempio, i casi che si stanno svolgendo davanti alla Corte Suprema degli Stati Uniti o nel sistema giudiziario europeo. La capacità di sostenere e supportare più casi in vari paesi in tutto il mondo, penso, sarà fondamentale in termini di tentativo di servire come sforzo per attuare la regolamentazione.

E poi questo si spingerà a un livello più internazionale invece di avere solo questi accordi informali o, ehi, confido che lo farai in buona fede. Si potrebbero finalmente bloccare le persone e avere regole più forti su cosa significhi avere libertà di parola all'interno delle società, cosa sia l'incitamento all'odio, in modo che non vari in modo così disomogeneo tra paesi e continenti.

Stephanie: Mentre penso alle raccomandazioni che stai facendo, sembrano essere ricerche, politiche e grandi riflessioni. E che dire degli attivisti sul campo che continueranno ad andare là fuori, a protestare e a compiere azioni dirompenti? Cosa devono sapere sull'intelligenza artificiale e sui suoi potenziali danni e cosa stanno per fare o sui suoi potenziali vantaggi?

Heather: Sì. Penso che sia per – potresti fare qualcosa di questo. Non hai bisogno di molta tecnologia, come le conoscenze tecniche, per andare online. E quindi, se sei su Twitter o Facebook, potresti semplicemente fare ricerche per parole chiave su ciò che è successo. Quindi, se si tratta di un argomento che ti interessa molto ed è la fonte del tuo attivismo, potresti vedere cosa ne dicono le persone per avere un'idea delle narrazioni che vengono prodotte, in modo da poter indirizzare meglio i messaggi, contro-messaggio su di esso, senza dover dire che è necessario raschiare l'intera Internet. Potrebbero essere solo ricerche autonome.

Penso che l'altro aspetto sia l'azione collettiva, il lavoro con gli altri e la pianificazione di una strategia. Penso che il sistema giudiziario sarà fondamentale. Stai cercando modi per vedere se puoi partecipare a eventuali cause legali intentate da organizzazioni no-profit prese di mira da alcune aziende come X. Il Centro per la lotta all'odio digitale è stato preso di mira perché sta segnalando l'incitamento all'odio online.

Quindi, come puoi sostenere queste organizzazioni attirando maggiore attenzione, magari firmando una petizione, scrivendo messaggi ai membri del congresso o andando in campo a protestare? Ci sono azioni quotidiane che potrebbero aver luogo a sostegno di queste organizzazioni che stanno facendo così tanto lavoro, le organizzazioni non profit, per sottolineare cosa sta succedendo e responsabilizzare le aziende tecnologiche e aiutare a far avanzare nuove idee in questo spazio.

Penso che questo sia un aspetto in cui gli attivisti non violenti possono partecipare e unirsi ad altri in diverse parti del mondo per tenere conversazioni o anche solo scrivere articoli su Medium o altro. Basta avere un sito web in cui inserirlo per condividere la conoscenza.

Stefania: Grazie mille.

Michael: Facevo parte di un panel alle Nazioni Unite nel 2014 e ho dato un paio di suggerimenti alla fine della mia presentazione. Uno di questi era che le Nazioni Unite dovessero dare un'occhiata: si trattava di un panel sulla violenza nei media. Quindi, il mio suggerimento è stato che le Nazioni Unite creassero una sorta di indice che permettesse al grande pubblico di vedere quali fonti di media propagavano la violenza.

Hanno pensato che fosse un'ottima idea. E mi hanno detto subito che nessuno lo avrebbe fatto. Quindi è solo, sai, un po' frustrante. E mi chiedo se sei a conoscenza degli sforzi per educare le persone per renderle alfabetizzate sull'intelligenza artificiale, nello stesso modo in cui le alfabetizziamo sui media. Qualcuno è coinvolto in questo, o qualche governo o organizzazione è coinvolto?

Heather: Sì. Penso che sia il Center for Humane Technology o All Tech is Human a impegnarsi, un'organizzazione no-profit con sede a New York, per interagire con le persone. Potresti iscriverti ai loro avvisi di notizie, ai programmi di tutoraggio/allievo, nonché ai loro corsi di formazione aperti, per saperne di più sulla tecnologia. E quindi, questa è una fonte.

Penso che molto di ciò di cui sono a conoscenza riguardi principalmente l'alfabetizzazione mediatica, non necessariamente la conoscenza dell'intelligenza artificiale. Ma penso che nel 2024 potrebbe esserci uno sforzo maggiore per riflettere e come applicarlo nelle diverse comunità. Anche nelle comunità in cui potrebbe non esserci un'intelligenza artificiale toccante, ma l'intelligenza artificiale viene utilizzata su di loro, è necessario avere quella conoscenza.

Perché se sei online, utilizzando i social media, fai parte dell'intelligenza artificiale perché l'intelligenza artificiale modera i contenuti per te in una lingua locale. E quindi, avere quella consapevolezza e sapere che non hai bisogno dell'ultimo iPhone per essere collegato al mondo dell'intelligenza artificiale o utilizzare ChatGPT perché è già lì e tu ne fai già parte. E se sta raccogliendo dati da Internet, potresti rimanere coinvolto anche tu.

Stephanie: Beh, grazie mille per il tuo tempo. Cosa ti dà speranza in questa conversazione?

Heather: Penso che, nonostante tutti i danni che potrebbero verificarsi, il fatto che le persone abbiano una maggiore consapevolezza e che questi strumenti di cui le persone sono preoccupate siano gli stessi strumenti su cui si potrebbero condividere informazioni e consapevolezza per mobilitare le persone. E quindi, bisogna considerarlo come l'aspetto opposto di tutto ciò che è accaduto.

Sì, questo potrebbe essere un danno, ma come possiamo effettivamente usarlo per aiutare a raggiungere più persone che prima non potevamo raggiungere? L'idea originale quando sono nati i social media era quella di aumentare i beni comuni in modo da poter incontrare persone in diverse parti del mondo, o anche nel tuo paese, nel tuo stato, che normalmente non avresti incontrato. Si tratta di mantenerlo e cercare di sfruttare questi strumenti per poterlo fare. E per creare connessioni e costruire sostegno dalla base.

E per diffondere messaggi, contrastare messaggi quando c'è così tanto rumore aggiungiamo tutti questi miliardi di dollari per costruire questo sistema d'arma che ora potete mettere online e avere un maggiore accesso per contrastarlo e per presentare un'altra alternativa a ciò che potrebbe essere – come risolvere un conflitto o prevenire un conflitto.

Stefania: bellissima. Grazie.

Michele: Amen.

Stephanie: Sei a Nonviolence Radio e abbiamo parlato con la dottoressa Heather Ashby. Lei è dell'Istituto statunitense per la pace e direttrice associata del loro programma sulle tecnologie dirompenti e l'intelligenza artificiale.

Passiamo ora al Rapporto sulla Nonviolenza con Michael Nagler

Rapporto sulla nonviolenza

Michael: Sono Michael Nagler. Questo è il Rapporto sulla Nonviolenza per l'inizio del 2024.

E in questo mese, gennaio, il 15, festeggeremo il compleanno di Martin Luther King Jr. Voglio solo leggere un paio di sue citazioni. Ha detto: "Abbiamo bisogno di un riordino radicale delle nostre priorità nazionali. In definitiva, una grande nazione è una nazione compassionevole". Oh ragazzi, se solo potessimo prenderlo a cuore.

E nel 1964, nel suo famoso discorso per il Premio Nobel, disse: "Mi rifiuto di accettare l'idea cinica che nazione dopo nazione debba precipitare in una spirale militaristica fino all'inferno della distruzione termonucleare". Questo è Martin Luther King e il suo massimo controllo delle immagini.

Prima di entrare nelle notizie, vorrei menzionare che recentemente abbiamo avuto un'ottima intervista con la nostra amica Georgia Kelly, che è un'esperta delle cooperative Mondragon nella regione basca della Spagna. E siamo sempre molto interessati agli esperimenti sociali economici che possono portarci su per la scala e lontano dall'inferno della distruzione termonucleare verso una nazione compassionevole e un mondo compassionevole.

Ebbene, l'evento che è nella mente di tutti e sul radar di tutti in questo momento è l'orrore che si sta verificando a Gaza. È interessante notare che il Sudafrica, formalmente una nazione di apartheid, ha invocato la convenzione sul genocidio contro Israele. E il Wall Street Journal ha riferito che questa è la guerra più devastante mai vista nella storia moderna.

Non voglio darvi ora tutti i dettagli, quante persone sono state uccise, quanti bambini senza acqua, ecc. Ma aggiungerò una citazione del capo economista del Programma alimentare mondiale. Ha detto: "Sono stato praticamente in qualsiasi conflitto e non ho mai visto nulla di simile, sia in termini di portata, di grandezza, ma anche per il ritmo con cui si è svolto". E voglio aggiungere un altro criterio tratto da un'intervista condotta da Owen Jones nel Regno Unito a una coppia di esperti su Israele.

Questo è Paul Rogers che ha detto che "Non tutti sono dietro Netanyahu. Look at Women Wage Peace", che è, ancora una volta, una delle joint venture tra donne ebree e palestinesi.

C'è anche – e non lo sapevo – oltre a Neve Shalom e Hand In Hand, quelle due scuole israelo-palestinesi, c'è in realtà una città. Non ho scoperto quale, che è volutamente una città ebraica e palestinese.

Ora, come sappiamo dall'esperienza passata, se siamo disposti a imparare da ciò, l'azione che Israele sta portando avanti non farà altro che accrescere la loro amarezza e il loro dolore, come abbiamo visto in altre parti di quella regione in generale, vale a dire l'Afghanistan, ma anche in Africa, dove l'Isis e i talebani sono in ripresa dopo lo sforzo militare intrapreso contro di loro.

Quindi, per continuare con le buone notizie, esiste un'organizzazione chiamata The Green Olive Collective. E tengono webinar altamente informativi con palestinesi e altri, incluso questo gruppo molto importante chiamato Combattenti per la Pace, ex soldati dell'IDF che ora sono per la pace.

E recentemente, Common Dreams ha pubblicato interviste con tre ragazzi israeliani che mi hanno davvero catturato il cuore. I loro cognomi sono Mitnick, Davidov e Keidal. Anche prima che accadesse Gaza, avevano deciso di essere obiettori di coscienza. E in effetti, fanno parte di un gruppo di oltre 200 studenti delle scuole superiori, quelli che chiamano […], in Israele, che già in agosto avevano annunciato che si sarebbero rifiutati di arruolarsi a causa dell'occupazione israeliana della Palestina, compreso l'Occidente. Bank, Gerusalemme Est e Gaza.

Ed ecco una citazione di [Tal Mitnick e Ariel Davidov] apparsa oggi su Waging Nonviolence. "Per me, una delle cose più affascinanti dell'attivismo come ebreo in Israele è che può comprendere diversi ambiti. Possiamo impegnarci in politica, fare pressione sulla Knesset e cercare di creare una democrazia in Israele, lavorando anche in comunione con gli attivisti palestinesi e le persone nei territori occupati".

Sto pensando a una parola che è stata usata da Daniel Levy in una di quelle interviste a Owen Jones. Ha parlato di disumanizzazione e riumanizzazione, della necessità che israeliani e palestinesi si guardino negli occhi. Se non lo fai, proseguirai in quella che Daniel Levy ha definito una spirale mortale per Israele.

Bene, torniamo un attimo al nostro Paese. C'è un rapporto speciale per la fine del 2023 che Rivera Sun ha pubblicato su Nonviolence News.

E quello che ha fatto per concludere l'anno è stato elencare 66 storie di successo per comunità, adolescenti, donne, persone LGBTQ e non solo più sicure. Successi incoraggianti come; 96 vittorie per gli scioperi dei lavoratori, 99 guadagni per la terra, il clima e l'ambiente, 54 progressi nella giustizia razziale. Questo è tutto positivo.

Giornate di azione contro la violenza della campagna. Abbiamo appena terminato la decima edizione annuale di questa campagna. E ha avuto molto successo. Ci sono state non meno di 5057 azioni. E così, la Campagna Nonviolenta ha distribuito una serie di borse di studio per giovani promotori del cambiamento e ha lavorato al progetto Nonviolent Cities, ecc.

L'Alleanza per la Pace porta questo alla nostra attenzione. Attualmente c'è un disegno di legge al Congresso, il suo numero è H.R.1111, per creare un Dipartimento di Pace. Potrei semplicemente aggiungere che questa idea, che oltre a un Dipartimento della Difesa, che è un eufemismo per un dipartimento della guerra, che gli Stati Uniti dovrebbero avere un Dipartimento della Pace, fu avanzata in – penso che la data esatta sia il 1734. Era un medico di Filadelfia che fece quella proposta.

Quindi, ci è voluto un po' di tempo per prendere slancio. Ha portato alla creazione dell'Istituto per la Pace degli Stati Uniti, che però non è proprio la stessa cosa, perché non è un dipartimento del governo. Quindi, questo è quello che sarebbe il Dipartimento della Pace, ha 40 cosponsor e loro – loro, essendo l'Alleanza per la Pace – organizzeranno riunioni Zoom per voi con l'ufficio dei vostri membri del congresso. E stanno fornendo molto materiale. Puoi unirti a oltre 400 gruppi e individui per sostenere la legislazione. E hanno anche altre azioni.

Spostarsi all'estero solo per un secondo: in Italia è in programma, come ormai da molti anni, un Pellegrinaggio di Pace e Giustizia. E questo sarà dal 23 al 30 giugno. Un pellegrinaggio, ovviamente, alla città natale di Francesco d'Assisi, che sono felice di dire non è una città molto cambiata dai suoi tempi. A parte l'influenza magnetica del grande santo che visse lì, solo la sensazione di passeggiare in una città del XII secolo e sperimentare la scala umana, prima che gli edifici, i trasporti e in un certo senso prendessero il sopravvento, ho trovato un'esperienza molto, molto rinvigorente.

Vorrei citare un paio di libri, in chiusura. Uno di questi è di Jerry Elmer, e questo è venuto fuori perché ho menzionato i Refuseniks qualche tempo fa. È un libro completo intitolato "Coscrizione, obiezione di coscienza e resistenza alla leva nella storia americana". Questo è il seguito dei libri di Peter Brock, che raccontavano una storia molto approfondita fino agli anni '60 circa, credo.

Elmer sottolinea, e questa è una citazione diretta: "Durante la prima guerra mondiale ci furono più di 1900 procedimenti penali riguardanti discorsi contro la guerra o contro la leva, articoli di giornali o riviste, opuscoli e libri. Non si tratta nemmeno dei Refuseniks, che chiedono semplicemente la non partecipazione a quella guerra, alla quale in realtà non avevamo molti motivi per partecipare.

E nel biennio compreso tra giugno 1917 e giugno 1919 furono condannate 877 persone. Immagino che una di loro probabilmente fosse Emma Goldman, che non solo fu condannata perché deportata.

Gli obiettori di coscienza furono perseguitati in quel periodo in modo piuttosto violento. Tra gli altri, c'erano quattro Hutteriti, che oggi sarebbero automaticamente scusati perché appartengono ad una religione non violenta. Furono condannati a 20 anni, che trascorsero in isolamento ad Alcatraz. E non vi darò nemmeno qui i dettagli di come furono trattati.

Se vuoi leggere un libro davvero interessante su tutto questo periodo storico e su questa risposta alla guerra, c'è un libro meraviglioso intitolato Archibald Baxter. Si intitola "Non smetteremo". Era un bracciante agricolo in Australia. Nel 1918 furono deportati con la forza sul fronte occidentale solo 14 obiettori di coscienza, tra cui Baxter. E' un libro molto, molto commovente. "We Shall Not Cease", una testimonianza del coraggio umano da un lato e dell'arretratezza e dell'ignoranza dall'altro, contro la quale il coraggio, ovviamente, prevale.

C'è anche la poesia del periodo a cui sto pensando. EE Cummings ha una poesia intitolata "I Sing of Olaf". Ed Edna St. Vincent Millay ha una poesia meravigliosa che dice: "Morirò, ma questo è tutto ciò che farò per la morte".

Questo era uno dei due libri che volevo menzionare. L'altro è di Deepak Bhargava e Stephanie Luce. Si chiama "Radicali Pratici". E stanno offrendo, sulla base di prove storiche, che è necessario un mix creativo di molteplici strategie allineate per ottenere un cambiamento trasformativo con cui sono completamente d'accordo.

"Il loro libro è un inno alla strategia", afferma la nostra amica Maria Stephan, "un ponte tra il mondo così com'è e il mondo come dovrebbe essere", ed evidenzia sette strategie chiave: costruzione di basi, movimenti dirompenti, cambiamento narrativo: questo è numero uno nella nostra tabella di marcia: cambiamento elettorale, campagne inside-outside, modello di slancio e cura collettiva.

Infine, voglio menzionare una risorsa chiamata Restorative Media. È una fonte globale di ispirazione e informazioni su questa importantissima istituzione e sui suoi media: media riparatori. Ora hanno bisogno del nostro sostegno per sopravvivere. Sono il primo podcast sulla giustizia riparativa. E lo fanno da oltre 12 anni. E hanno avuto una lista impressionante di ospiti. E quindi richiamerò la vostra attenzione su questo. Supporti restaurativi.

E già che ci siamo, a Restorative Justice on the Rise, un progetto iniziato nel 2011. E il loro primo podcast è stato con Arun Gandhi. Questi podcast sono creati da Molly Rowan Leach, che mi ha anche intervistato.

Il mantenimento della pace civile disarmato è qualcosa su cui ci piace sempre tenere il polso e su cui ci piace tenere il dito puntato su Metta. E in ottobre, 84 persone provenienti da 26 paesi si sono riunite a Ginevra, in Svizzera, per condividere con i rappresentanti delle Nazioni Unite il successo della protezione e dell'accompagnamento dei civili disarmati, come vengono ora chiamati. UCP/A. E così, hanno portato storie sulla sua efficacia da tutti gli angoli del mondo.

Ed ecco la cosa più importante: la capacità dell'UCP di essere un vero punto di svolta nel ridurre la violenza globale era semplicemente innegabile da queste prove presentate. Hanno anche contribuito a sviluppare un codice etico e delineano modi per proteggere le comunità in cui servono da indebite influenze esterne. E sei diversi continenti, in realtà, hanno visto partecipanti lì impegnati a risolvere problemi, sviluppare idee per le migliori pratiche e strategie e fare brainstorming sui passi successivi per la promulgazione.

E qui sto citando: "Per aver promulgato questi metodi incredibilmente potenti e responsabilizzanti per la trasformazione non violenta dei conflitti". Ci sarà uno Zoom il 17 gennaio alle 20:00, ora orientale. E puoi trovare il collegamento da Meta Peace Teams in questo paese o cercare UCP.

E questo è il riepilogo, o parte di esso, degli eventi non violenti che hanno avuto luogo nel nostro mondo all'inizio del 2024. Spero sinceramente che da qui in poi tutto andrà verso l'alto. E non vedo l'ora di condividerlo con te. Stephanie: Hai ascoltato Nonviolence Radio. Vogliamo ringraziare la nostra ospite di oggi, la dottoressa Heather Ashby dell'US Institute of Peace. A KWMR, la nostra stazione madre, a tutto il nostro team di Nonviolence Radio, grazie mille, anche a Waging Nonviolence e Pacifica Network per il loro supporto nella diffusione dello spettacolo. E a tutti i nostri ascoltatori se volete saperne di più sulla nonviolenza o ascoltare gli archivi, trovateci su www.mettacenter.org. Fino alla prossima volta, per favore, prendetevi cura l'uno dell'altro.

2019 Telematica per il DISARMO | Tutti i diritti riservati.
Creato con Webnode
Crea il tuo sito web gratis! Questo sito è stato creato con Webnode. Crea il tuo sito gratuito oggi stesso! Inizia