Lukk annonse

Teknologifeltet er truet av en rekke faktorer. Brukere frykter for eksempel skadelig programvare eller tap av personvern. Men ifølge innflytelsesrike personer i teknologibransjen bør vi ikke bekymre oss så mye om den menneskelige faktoren i seg selv, men heller dens forbindelse med kunstig intelligens. På årets World Economic Forum i Davos ba ledere fra en rekke store teknologiselskaper om lovregulering av industrien. Hva er deres grunner for å gjøre det?

«Kunstig intelligens er en av de mest dyptgripende tingene vi som menneskehet jobber med. Den har mer dybde enn brann eller elektrisitet." sa administrerende direktør i Alphabet Inc. forrige onsdag på World Economic Forum. Sundar Pichai, og legger til at reguleringen av kunstig intelligens krever et globalt prosesseringsrammeverk. Microsoft-direktør Satya Nadella og IBM-direktør Ginni Rometty etterlyser også standardisering av regler for bruk av kunstig intelligens. I følge Nadella er det i dag, for mer enn tretti år siden, nødvendig for USA, Kina og EU å etablere regler som bestemmer betydningen av kunstig intelligens for samfunnet vårt og for verden.

Enkeltselskapers forsøk på å etablere egne etiske regler for kunstig intelligens har tidligere møtt protester ikke bare fra de ansatte i disse selskapene. For eksempel måtte Google i 2018 trekke seg fra det hemmelige regjeringsprogrammet Project Maven, som brukte teknologi til å analysere bilder fra militære droner, etter massiv tilbakeslag. Stefan Heumann i den Berlin-baserte tenketanken Stiftung Neue Verantwortung, i forhold til de etiske kontroversene rundt kunstig intelligens, sier at politiske organisasjoner bør sette reglene, ikke selskapene selv.

Google Home-smarthøyttaleren bruker kunstig intelligens

Den nåværende bølgen av protester mot kunstig intelligens har en klar grunn til denne timingen. I løpet av bare noen få uker må EU endre sine planer for den relevante lovgivningen. Dette kan for eksempel omfatte regelverk om utvikling av kunstig intelligens i såkalte høyrisikosektorer som helsevesen eller transport. I følge de nye reglene vil for eksempel bedrifter måtte dokumentere innenfor rammen av åpenhet hvordan de bygger AI-systemene sine.

I forbindelse med kunstig intelligens har det allerede dukket opp flere skandaler tidligere – en av dem er for eksempel Cambridge Analytica-saken. I Amazon-selskapet avlyttet ansatte brukere gjennom den digitale assistenten Alexa, og sommeren i fjor brøt det ut en skandale igjen på grunn av at selskapet Google – eller YouTube-plattformen – samlet inn data fra barn under tretten år. uten samtykke fra foreldrene.

Mens noen selskaper er tause om dette emnet, ifølge uttalelsen til visepresidenten Nicola Mendelsohn, etablerte Facebook nylig sine egne regler, lik den europeiske GDPR-forordningen. Mendelsohn sa i en uttalelse at dette var et resultat av Facebooks press for global regulering. Keith Enright, som er ansvarlig for personvern hos Google, sa på en nylig konferanse i Brussel at selskapet for tiden leter etter måter å minimere mengden brukerdata som må samles inn. "Men den utbredte populære påstanden er at selskaper som vårt prøver å samle inn så mye data som mulig," han uttalte videre, og la til at det er risikabelt å holde data som ikke gir noen verdi for brukerne.

Regulatorene ser ikke ut til å undervurdere beskyttelsen av brukerdata i alle fall. USA jobber for tiden med føderal lovgivning som ligner på GDPR. Basert på dem vil selskaper måtte innhente samtykke fra kundene sine for å gi dataene sine til tredjeparter.

Siri FB

kilde: Bloomberg

.