Hannover. Kan du drepe en person for å redde fem? Switch-Maker saken (tralle problem) er et velkjent moralsk tankeeksperiment. I det siste, var det ofte en trikk som ubønnhørlig løp mot en gruppe på fem personer. Det fattig Skiftelokomotiv må nå avgjøre: does han gjøre ikke noe og utleie det fem folk dø, eller does han avlede sporet å en bane der hvor den drepe bare ettall personen?

I dag virker problemet mer aktuell enn noensinne. Men dette er ikke lenger om trikker og skiftere, men om selvkjørende biler. I en tid da maskinene i økende grad tar avgjørelser på egenhånd, synes det å være et viktig spørsmål: skulle en selvkjørende bil kjøre over en fotgjenger i en nødssituasjon for å redde livene til beboerne? Et relevant spørsmål, bør man tenke. Men Meredith Whittaker har ikke mye igjen for henne. Hun er en AI ekspert, tidligere Google-ansatt og grunnlegger av AI Now Institute, som omhandler de sosiale konsekvensene av kunstig intelligens (AI). Som sådan, Whittaker kritiserer: The Switch-Maker problem reduserer ekstremt komplekse problemer til en enkel enten-eller spørsmål. Dette er ikke nyttig, men fremfor alt distraherer det fra de virkelige problemene.

Kunstig intelligens: ikke lenger en sjeldenhet i hverdagen
Milliardæren Elon musk er redd for AI apokalypsen. Foran en kunstig intelligens som blir så mektig at det slavebinder menneskeheten. Det er en fjern, usannsynlig fremtid. Men vi er også fortsatt en lang vei fra en verden der bilene kjører gjennom gatene på egenhånd. Spørsmålet om hvordan algoritmer gjør sine beslutninger, på den annen side, er allerede blir spurt i dag.

Fordi algoritmene rundt oss har lenge påvirket livene våre. Algoritmer, som matematiker Hannah Fry beskriver det, er like mye en del av moderne infrastruktur som broer, bygninger og fabrikker. De jobber på sykehus, på politistasjoner eller i supermarkeder. De hjelper deg med å finne egnede søkere eller evaluere lånesøknader. Enkelt sagt, kunstig intelligencecans kan gjøre en god jobb med en algoritme som lærer selvstendig. Du kan anbefale filmer, oppdage hudkreft celler og slette hate innlegg på Facebook.

Når data er forvrengt: den mørke siden av teknologien

Problemet er at AI er en teknologi som også kan brukes til å bygge automatiske våpensystemer som gjør beslutningen selv om å drepe et menneske. Eller for å evaluere folk på grunnlag av ulike egenskaper, som allerede er praktisert i Kina, for eksempel. Det blir også problematisk når algoritmer reprodusere fordommer og ta urettferdige avgjørelser. Folk har en tendens til å tenke anbefalinger av en algoritme er nøytrale. Faktisk avhenger mye av data han er opplært med. «Hvis dataene inneholder en forvrengning, kan AI indirekte formidle menneskelige fordommer,» forklarer filosofi professor Thomas Metzinger fra Universitetet i Mainz. Deretter, for eksempel, en algoritme favoriserer mannlige søkere eller anbefaler afrikansk-amerikanere sjeldnere å bli løslatt mot kausjon.

Forebygge dette er ikke så lett. En algoritme tenker ikke som et menneske, men det er ofte vanskelig å forstå. «Selv utviklerne ofte kan ikke forklare hvordan akkurat en avgjørelse ble gjort,» sier Metzinger. Og ofte selskapene ikke ønsker det i det hele tatt.

Smarte algoritmer opprettes bare med mye data
«The AI som for tiden påvirker våre liv og våre institusjoner er en bedriftsteknologi,» Whittaker sa i en presentasjon på fallende Walls Conference i Berlin. For å lage smarte algoritmer, trenger du mye datakraft og mye informasjon for å trene dem med. Bare en håndfull selskaper, inkludert Amazon, Microsoft og Google, hadde disse kravene, Whittaker sa. Så er det land som Kina. De er alle ikke akkurat kjent for sin åpenhet.

Eksperter har foreslått forbedringer i bruken av kunstig intelligens
Det er ideer om hvordan å gjøre det bedre. Det er tenkelig, for eksempel at bruk av AI i visse områder er rett og slett forbudt. «28 land har for eksempel forbudt utviklingen av dødelige, autonome våpensystemer», sier Metzinger. «Tyskland er ikke en av dem.» Det kan også være regulert at en AI ikke kan ta avgjørelser i visse situasjoner uten en menneskelig undersøkelse. Og for å sikre at en AI ikke reprodusere noen-minst åpenbare-fordommer, kan det bli vurdert før det er brukt av etikere, personverneksperter, eller advokater.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *