Ogni sette anni circa, nel mondo della tecnologia appare una nuova tendenza per continuare a sviluppare e penetrare gran parte della tecnologia che utilizziamo nella nostra vita quotidiana o ciò che ci viene imposto da essa, sia attraverso Internet o servizi governativi e altri . Questo è il caso dell'intelligenza artificiale (AI) e delle tecnologie di riconoscimento facciale in questi giorni. Una tecnologia in continua evoluzione che le aziende adottano in modo diverso e tutti la vogliono. Ma tutto questo comporta dei rischi, cosa sono?

L'intelligenza artificiale è un grave problema e una minaccia per la privacy, quindi sei pronto a sacrificarti?


Tecnologia che si sviluppa da sola, più di quanto potresti pensare

Intelligenza artificiale, grandi problemi e una minaccia per la privacy. Pronto al sacrificio?

Ciò che è nuovo e distintivo delle tecnologie di intelligenza artificiale è che sono autoapprendimento. Questo è ciò che li rende davvero "intelligenti". La tecnologia di oggi è senza dubbio migliore di quella di ieri. Domani sarà migliore e più preciso. Ma come si evolve questa tecnologia? Esistono diversi metodi che differiscono con ciascuna azienda.

Poiché Apple fa molto affidamento sulla potenza dei suoi processori e chip di account neurali per creare account di intelligenza artificiale localmente sul dispositivo senza la necessità di inviare molte informazioni ad Apple. Con l'obiettivo di preservare la privacy degli utenti. Ma questo rende difficile per l'azienda sviluppare la tecnologia poiché raccoglie così poche informazioni, che anche l'utente può smettere di raccogliere. Lasciando il compito di addestrare l'IA in gran parte agli ingegneri Apple.

Quanto a Google, il re dell'intelligenza artificiale, si affida al lavoro di tutti i processori nei propri computer (il cloud) che si connettono ai dispositivi industriali tramite Internet. Ciò fornisce all'azienda la capacità di creare calcoli altamente complessi senza la necessità di sviluppare processori speciali come Apple. Inoltre, Google raccoglie dati da tutti e da tutto per sviluppare la propria intelligenza artificiale. Ricerca nei motori di ricerca, ricerca di immagini, programma di immagini di Google e la sua funzione di riconoscimento e classificazione dei volti. Tutto allena l'intelligenza artificiale.

Anche quelle immagini su Internet che vuoi "assicurarti di essere umano" e poi ti chiedono di selezionare tutte le immagini che contengono un autobus. Queste immagini stanno effettivamente addestrando l'IA a riconoscere gli oggetti. Come autobus o semafori e altri.


Problemi di razzismo

Il razzismo sembra essere un problema che richiederà tempo per essere risolto. Anche nel mondo della tecnologia. Ci sono stati diversi incidenti nelle notizie in cui i sistemi di intelligenza artificiale hanno drasticamente alterato i loro risultati in base al colore della pelle e alle caratteristiche del viso. Il più recente è stato ad aprile, quando l'intelligenza artificiale di Google ha segnalato il segno corretto quando ha visto la foto di una persona bianca con in mano un termometro elettronico. Mentre ha riconosciuto la stessa immagine, ma con una persona dalla pelle nera, come una persona che porta un'arma.

Forse abbiamo davvero bisogno dello sforzo di tutti per risolvere questo problema. Forse è il risultato naturale di lasciare lo sviluppo tecnologico solo all'Occidente.


Ho sempre guardato

Uno degli usi più importanti dell'intelligenza artificiale sono le tecniche di riconoscimento facciale. E non si limita allo sblocco automatico del telefono o alla classificazione delle foto in base alle persone. Piuttosto, vengono utilizzati in molte applicazioni. Tra i più influenti di questi ci sono i sistemi di sorveglianza del governo. Sia per monitorare strade o installazioni e altro.

Forse questo punto è considerato controverso perché a causa della modernità della tecnologia, non abbiamo nella maggior parte del mondo leggi esplicite e regole tecniche che disciplinano l'uso di questi sistemi da parte di aziende e governi. Ci sono timori di un uso improprio. Immagina una società privata che ha il potere di acquistare un sistema in grado di accedere a un database che riconosce il tuo viso solo quando passi davanti a un edificio. Per conoscere tutte le tue informazioni memorizzate. O forse un governo può abusare della tecnologia per prendere di mira gruppi piuttosto che altri con la morsa della sicurezza o qualcos'altro. Sono tutte possibilità.

Facendo eco a questi dubbi e preoccupazioni, IBM, uno dei principali leader dell'IA, ha annunciato di aver smesso di vendere, sviluppare e persino ricercare tecnologie di riconoscimento facciale.


qual è il contrario?

Naturalmente, non è solo una sorta di schema aziendale per mettere a repentaglio la privacy degli utenti. È principalmente per lo sviluppo dei servizi di cui l'utente gode. A cominciare dai servizi smart forniti da Google Foto, passando per le grandi capacità delle nuove fotocamere, il cui sviluppo hardware è rallentato a causa del ricorso all'intelligenza artificiale per migliorare l'immagine, e la fine della fluidità dei sistemi cloud e delle auto autonome.


Sei pronto a pagare?

Questa è la domanda importante. Sei (amico mio) come utente di tutti questi servizi, pronto a rischiare le tue informazioni o parte della tua privacy o libertà di movimento senza un monitoraggio costante per poter usufruire di queste tecnologie?

O dovremmo rallentare e riconsiderare come si sta sviluppando l'IA e le tecnologie che vengono utilizzate per migliorarla? Soprattutto perché ciò che abbiamo menzionato è solo una parte dei problemi tecnologici.

È chiaro che l'IA mantiene molte promesse di potenti capacità per il futuro. È certo ora che il motore dell'evoluzione in esso deve rallentare un po 'fino a quando non rivedremo le regole. E concordiamo nuovi contratti sociali che garantiscano il miglior adattamento della tecnologia. In modo da ottenere i suoi vantaggi riducendo al minimo i rischi.


Qual è la tua posizione nel conflitto tra evoluzione e privacy? Pensi che un sacrificio vada bene?

Risorse:

TheVerge | AlgoritmoGuarda | OnMSFT

Articoli correlati