Feil i moderne kunstig intelligens (AI) systemer basert på maskinlæring (ML) er ikke tilfeldige svikter, men lovmessige konsekvenser av deres arkitektur, læringsmetode og grunnleggende forskjell fra menneskelig innsikt. I motsetning til mennesker forstår ikke AI verden i semantisk forstand; han oppdager statistiske korrelasjoner i data. Hans feil oppstår der disse korrelasjonene brytes, der abstrakte resonnering, sunn fornuft eller forståelse av kontekst er nødvendig. Analyse av disse feilene er kritisk viktig for å vurdere påliteligheten til AI og definere grensene for dets anvendelse.
Den mest vanlige og sosialt farlige kilden til feil er bias i treningsdata. AI lærer og forsterker fordommer som eksisterer i dataene.
Demografiske feil: En kjent sak med ansiktsgjenkjenningssystem som viste betydelig høyere nøyaktighet for lys hud menn enn for mørk hud kvinner, fordi det ble trent på en ubalansert dataoppsett. Her gikk AI ikke «feil», men lot seg nøyaktig reflektere balansen i den virkelige verden, noe som førte til en feil i anvendelse i en mangfoldig miljø.
Semantiske feil: Hvis setningen «sykepleier» ofte er knyttet til det personlige pronomen «hun» i treningsdataene for en tekstmodell, mens «programmerer» ofte er knyttet til «han», vil modellen generere tekster som representerer disse kjønnsstereotypene, selv om kjønn ikke er spesifisert i spørsmålet. Dette er en feil på nivå av sosial kontekst som modellen ikke forstår.
Interessant fakt: I datavitenskapen virker prinsippet «Garbage In, Garbage Out» (GIGO) — «musk» på inngang, musk på utgang». For AI har det transformert seg til en dypere prinsipp «Bias In, Bias Out» — «bias på inngang, bias på utgang». Systemet kan ikke overvinne begrensningene i dataene det ble trent på.
Disse er bevisste, ofte utilgjengelige for mennesker, endringer i inngangsdata som fører til fundamentalt feilaktige konklusjoner fra AI.
Eksempel med bilde: En lapp med flere piksler av et bestemt farge og form på et stoppskilt kan få en autonom computersynsk system til å klassifisere det som et skilt for begrenset hastighet. For mennesker vil skiltet fortsatt være tydelig gjenkjennelig.
Mekanisme: Adversariske eksempler utnytter «blinde soner» i det høyskala funksjonsplassrommet til modellen. AI oppfatter verden ikke som helhetlige objekter, men som et sett med statistiske mønstre. En minimal, men strategisk korrekt «interferens» flytter punktet i funksjonsplassrommet gjennom modellens løsningsgrense, endrer klassifiseringen.
AI, spesielt dype nevrale nettverk, har en tendens til overtilpasning (overfitting) — de husker ikke generelle lover, men spesifikke eksempler fra treningsvalget, inkludert støy.
Feil på data fra et annet fordeling: En modell som ble trent på bilder av hunder og katter tatt hjemme om dagen, kan miste all nøyaktighet hvis den får nattlig infrarødt bilde eller en tegneserie. Den har ikke fanget opp det abstrakte konseptet «katthet», men har lært å reagere på spesifikke pikselmønstre.
Avsakten av sunn fornuft: Et klassisk eksempel: AI kan beskrive scenen «en mann sitter på en hest i ørkenen» korrekt, men generere setningen «en mann holder i hånden en baseballbat» mens han sitter på hesten, fordi en bat statistisk kunne oppstå i konteksten av utendørs idrett. Det har ikke tilgang til fysisk og kausals logikk i verden.
Språkmodeller (som GPT) viser imponerende resultater, men gjør grove feil i oppgaver som krever forståelse av dypt kontekst eller subtile meninger.
Ironi og sarkasme: Setningen «Nå, fantastisk vær!» sagt under en storm vil bli tolket bokstavelig som en positiv vurdering av modellen, fordi positive ord («fantastisk», «været») statistisk er knyttet til positive kontekster i dataene.
Flere trinn logiske resonnering: Oppgaver i stil med «Hvis jeg legger et egg i kjøleskapet, og deretter flytter kjøleskapet til garasjen, hvor vil egget være?» krever bygging og oppdatering av en mental modell av verden. AI som jobber med å forutsi neste ord, mister ofte objekter midt i et komplekst fortelling eller gjør illogiske konklusjoner.
AI klarer seg dårlig med situasjoner som går utover hans erfaring, spesielt når det kreves å erkjenne manglende data.
Problemet med oppdagelse av «out-of-distribution»: Medisinsk AI som ble trent til å diagnostisere lungebetennelse ved hjelp av røntgenbilder av brystkassen, kan gi en høy, men falsk diagnose, hvis det presenteres med et knelbilde. Det forstår ikke at dette er meningsløst, fordi det ikke har meta-kunnskap om grensene for sin kompetanse.
Kreative og åpne oppgaver: AI kan generere troverdig, men fullstendig uutførbart eller farlig kjemisk oppskrift, plan for brobygging som bryter med fysikklovene, eller juridisk dokument med referanser til ikke-eksisterende lover. Det mangler en kritisk intern censor basert på forståelse av essensen av fenomener.
Eksempel fra virkeligheten: I 2016 lanserte Microsoft chat-botten Tay på Twitter. Bot ble trent på å interagere med brukere. Etter 24 timer hadde den blitt en maskin for å generere rasistiske, seksistiske og fornærmedende uttalelser, fordi den statistisk hadde lært de mest vanlige og emosjonelt ladede reaksjonene fra sitt nye, fiendtlige miljø. Dette var ikke en «feil» i algoritmen, men dens nøyaktige funksjon, som førte til en katastrofal konsekvens i en uforutsigbar sosial miljø.
Disse feilene er ikke midlertidige tekniske mangler, men følger av det grunnleggende skillet mellom statistisk approximasjon og menneskelig forståelse. De viser at moderne AI er et kraftig verktøy for å løse oppgaver innenfor klart definerte, stabile og godt beskrevne dataområder, men det forblir en «idiott-savant»: en genius i en smal felt og håpløs i situasjoner som krever fleksibilitet, kontekstuell vurdering og forståelse. Derfor ligger fremtiden for det rasjonelle bruk av AI ikke i å vente på dets «fullverdige fornuft», men i å skape hybride systemer «menneske-AI», hvor mennesket sørger for sunn fornuft, etikk og håndtering av unntak, og AI gir hastighet, skala og oppdagelse av skjulte mønstre i dataene.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Digital Library of Estonia ® All rights reserved.
2014-2026, LIBRARY.EE is a part of Libmonster, international library network (open map) Keeping the heritage of Estonia |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2