Informazioni

    I limiti dell'intelligenza artificiale

    AI: Le conseguenze della scoperta della ricercatrice del MIT Media Lab, Joy Buolamwini, che il riconoscimento facciale non vede accuratamente i volti dalla pelle scura.

    Shalini Kantayya mira ai limiti umani delle capacità di Intelligenza Artificiale (AI) nel suo film ricco di fatti, ben informato e fortemente femminile.

    Supportato da Women Make Movies e supportato, tra gli altri, da Sundance Institute, Distorsione codificata fa affidamento su un cast composto principalmente da personaggi femminili, per lo più autori e accademici, che sono tutti esperti nei pregiudizi pericolosi e antidemocratici sia della copertina che della pubblicità AI applicazioni.

    Se stai cercando ragioni per opporti allo strisciante totalitarismo dei Internet di tutto, quindi questo è un ottimo punto di partenza con una bibliografia che potrebbe tenerti offline per molti mesi a venire.

    Coded Bias, un film di Shalini Kantayya-still1-MTR
    Coded Bias, un film di Shalini Kantayya

    Pregiudizi nascosti

    L'eroina chiave del film è Joy Buolamwini, una giovane dottoranda nera al Media Lab del Massachusetts Institute of Technology (MIT).

    Buolamwini brillante e fiducioso - che combina un intelletto precoce con un talento per inventare la poesia rap affettiva - capisce quanto sia completamente compromessa l'IA quando durante un progetto di ricerca che si basa sul riconoscimento facciale per consentire agli utenti di un'app di darsi varie maschere online, smaschera un fatto inquietante: le app di riconoscimento facciale delle gigantesche aziende tecnologiche non riescono a rilevare volti neri, in particolare volti neri femminili, in una percentuale incredibilmente alta di casi.

    Quello che inizialmente era un fastidioso intoppo tecnico nella sua ricerca di una piccola app incredibilmente divertente diventa presto una seria indagine sui pregiudizi nascosti di un senza preoccupazioni questo è già onnipresente nella maggior parte dei paesi.

    Mentre Buolamwini inizia a cercare risposte, incontra donne che hanno già iniziato a capire la natura insidiosa dell'IA, tra cui Cathy O'Neil, un ex Wall Street consulente (che afferma di essere stata assunta senza alcuna conoscenza del settore dei servizi finanziari, ma semplicemente perché era brava a risolvere enigmi matematici).

    Se stai cercando ragioni per opporti al totalitarismo strisciante di Internet di tutto, allora questo è un ottimo punto di partenza

    O'Neil, una donna coinvolgente con una linea eccezionale con tagli di capelli firmati celesti, è una disadattata confessata che ha avuto un'illuminazione quando una quattordicenne al campo estivo si è resa conto di poter risolvere il cubo di Rubik in un attimo di le sue dita.

    Buolamwini la incontra a Cambridge, Massachusetts, in occasione della firma di un libro Armi di distruzione matematica: come i big data aumentano la disuguaglianza e minacciano la democrazia, ed è ispirato a indagare ulteriormente sul motivo per cui l'IA rappresenta una tale minaccia (non da ultimo perché essendo in grado di apprendere inosservato, è effettivamente una «scatola nera»).

    È già consapevole che «il passato dimora nei nostri alogritmi» - vedendo come il pregiudizio inconscio dei fondatori dell'IA (bianco, maschio, classe media) negli anni '1950 al Dartmouth College - abbia seminato il pregiudizio inconscio nei set di dati usati per da allora ho creato l'IA.

    O'Neil è tipicamente assertiva nella sua visione dell'IA: «An algoritmo utilizza le informazioni storiche per fare previsioni sul futuro; il problema è che si tratta solo di chi possiede il fottuto codice; le persone che lo possiedono poi lo distribuiscono su altre persone… .Non c'è simmetria, non c'è modo per le persone che non hanno ricevuto carte di credito di usarlo contro il sistema delle carte di credito; non c'è responsabilità. »

    Questo per quanto riguarda gli usi commerciali dell'intelligenza artificiale, che possono e arrecano molti danni alle persone comuni senza mai essere ritenuti responsabili: ben 4 milioni di persone hanno perso la casa durante la crisi dei subprime negli Stati Uniti nel 2008 come algoritmi che predicevano possibilità future di default sono stati utilizzati per emettere avvisi di preclusione.

    È stato, osserva un esperto nel film, "la più grande eliminazione della ricchezza nera nella storia degli Stati Uniti", aggiungendo che "la tirannia di questi tipi di pratiche di discriminazione è diventata opaca".

    Con un riferimento occasionale a HAL 9000, il computer onniveggente in formato Stanley Kubrick's 2001: Odissea nello spazio - e l'ossessionante Clare de Lune di Debussy che Kubrick ha usato con così grande effetto, il film si sposta su abusi e abusi più sinistri dell'IA.

    Coded Bias, un film di Shalini Kantayya-still2-MTR
    Coded Bias, un film di Shalini Kantayya

    Orologio del Grande Fratello

    A Londra, la polizia metropolitana è stata - senza alcuna supervisione normativa - sperimentando una tecnologia di riconoscimento facciale casuale a livello di strada, utilizzando furgoni non contrassegnati (oltre ai loghi con orgoglio e apparentemente senza traccia di ironia, affermando "Metropolitan Police. Total Policing").

    Qui il gruppo delle libertà civili Orologio del Grande Fratello è fuori e sta per contrastare la copertina sorveglianza, dicendo ai passanti di essere ripresi da un sistema di riconoscimento facciale senza il loro permesso. Un uomo che nasconde la faccia mentre cammina vicino al furgone viene sfidato dalla polizia e condannato a una multa sul posto (presumibilmente per comportamento antisociale, una delle poche multe facili da emettere che la polizia può schierare, grazie alla sentenza britannica Tory governo, il più di destra nella storia del paese.)

    Un uomo che nasconde la faccia mentre cammina vicino al furgone viene sfidato dalla polizia e condannato a una multa sul posto

    Il Grande Fratello Watch ha condotto una campagna per la libertà di informazione e ha scoperto che il 98% delle partite per sospetti criminali trovati «corrispondeva in modo errato a una persona innocente con una persona ricercata».

    "Per avere la tua faccia biometrica su un database della polizia è come avere la tua impronta digitale o DNA e abbiamo leggi specifiche al riguardo", dice un attivista del Big Brother Watch. «La polizia non può semplicemente prendere le tue impronte digitali o il DNA ... Ma in questo strano sistema che abbiamo, possono prendere la foto biometrica di chiunque e conservarla in un database della polizia. La polizia ha iniziato a utilizzare la tecnologia di riconoscimento facciale nel Regno Unito in totale assenza di una base giuridica. »

    Coded Bias, un film di Shalini Kantayya-still3-MTR
    Coded Bias, un film di Shalini Kantayya

    L'esperienza cinese

    Il film si immerge nell'esperienza cinese, dove il riconoscimento facciale è uno strumento onnipresente di Partito Comunista controllo sociale, e molte persone si sono già addomesticate ad esso - e traccia il confronto con gli Stati Uniti, osservando che, almeno in Cina, il governo è aperto su ciò che sta facendo; in America, la maggior parte dell'intelligenza artificiale e del riconoscimento facciale sono ancora nascosti.

    Non sono tutte brutte notizie. L'informazione è potere e quella di Buolamwini Justice League algoritmico ha avuto alcuni successi: il 10 giugno 2020, Amazon ha annunciato una pausa di un anno sull'uso da parte della polizia della sua tecnologia di riconoscimento facciale e nel giugno dello stesso anno i legislatori statunitensi hanno introdotto una legislazione per vietare l'uso federale del riconoscimento facciale.

    Tuttavia, non esiste ancora una regolamentazione federale degli Stati Uniti sugli algoritmi e nessuna azione politica nel Regno Unito contro l'uso dell'insidiosa tecnologia antidemocratica da parte del Met.

    Grazie per aver letto. Hai letto 36 recensioni e articoli (oltre alle notizie del settore), quindi potremmo chiederti di prendere in considerazione un sottoscrizione? Per 9 euro, ci sosterrai, avrai accesso a tutte le nostre riviste cartacee online e future - e otterrai la tua pagina del profilo (regista, produttore, festival ...) agli articoli collegati. Ricorda anche che puoi seguirci Facebook o con il nostro newsletter.

    Nick Holdsworthhttp://nickholdsworth.net/
    Il nostro critico regolare. Giornalista, scrittore, autore. Lavora principalmente dall'Europa centrale e orientale e dalla Russia.
    Ji.hlava annuncia il film di apertura, le masterclass di Oliver Stone e Vitaly Mansky e altro ancoraLa venticinquesima edizione del Ji.hlava IDFF si aprirà con When Flowers Are Not Silent del regista bielorusso #Andrei Kutsila#. Quando...
    IDFA aggiunge lo speciale perso Dziga Vertov; annuncia i titoli Luminous e FrontlightDopo essere scomparso per un secolo, il capolavoro perduto da tempo di Dziga Vertov La storia della guerra civile fa la sua prima mondiale...
    Annunciati tutor e programma aperto per la seconda sessione di Ex Oriente Film 2021Organizzato dall'Institute of Documentary Film in collaborazione con #FAMU, il workshop della seconda sessione Ex Oriente Film 2021...
    FAMIGLIA: Fratellanza (regia: Francesco Montagner)Una storia senza tempo di crescere in una terra di magia e odio.
    VISUALIZZAZIONI: Sabaya (regia: Hogir Hirori)Sabaya e consenso nel documentario
    NATURA: Dal mare selvaggio (regia: Robin Petré)Il rapporto tra uomo e animali degli oceani minacciato dai cambiamenti climatici e da tempeste violente sempre più frequenti.
    SCHIAVITÙ: Diciamo Rivoluzione (regia: Elisabeth Perceval, …)Eterne storie umane di sofferenza raccontate come un viaggio sciamanico.
    MEDIA: Canzoni in bottiglia 1-4 (regia: Chloé Galibert-Laîné, …)Terrorismo, cinema e propaganda: come l'ISIS ha adottato i mezzi occidentali per raggiungere un pubblico internazionale.
    - Annuncio pubblicitario -

    Ti potrebbe piacere ancheRELATIVA
    Consigliato a te

    X