Grunnleggende om kunstig intelligens og maskinlæring

Av | mars 16, 2022

Introduksjon

I løpet av de siste årene har begrepene kunstig intelligens og maskinlæring begynt å dukke opp ofte i teknologinyheter og nettsteder. Ofte brukes de to som synonymer, men mange eksperter hevder at de har subtile, men reelle forskjeller.

Og selvfølgelig er ekspertene noen ganger uenige seg imellom om hva disse forskjellene er.

Generelt synes imidlertid to ting klare: For det første er begrepet kunstig intelligens (AI) eldre enn begrepet maskinlæring (ML), og for det andre anser de fleste maskinlæring som en undergruppe av kunstig intelligens.

Kunstig intelligens vs. Maskinlæring

Selv om AI er definert på mange måter, er den mest aksepterte definisjonen «feltet for informatikk dedikert til å løse kognitive problemer som vanligvis er assosiert med menneskelig intelligens, som læring, problemløsning og mønstergjenkjenning», i hovedsak er det ideen at maskiner kan ha intelligens.

Hjertet i et kunstig intelligensbasert system er modellen. En modell er ikke annet enn et program som forbedrer sin kunnskap gjennom en læringsprosess ved å gjøre observasjoner om omgivelsene. Denne typen læringsbasert modell er gruppert under veiledet læring. Det er andre modeller som kommer under kategorien uovervåket læringsmodeller.

Uttrykket «maskinlæring» stammer også fra midten av forrige århundre. I 1959, Arthur Samuel definerte ML som «evnen til å lære uten å være eksplisitt programmert.» Og han fortsatte med å lage et datakontrollprogram som var et av de første programmene som kunne lære av sine egne feil og forbedre ytelsen over tid.

I likhet med AI-forskning falt ML ut av moten lenge, men det ble populært igjen da konseptet med datautvinning begynte å ta av rundt 1990-tallet. Data mining bruker algoritmer for å se etter mønstre i et gitt sett med informasjon. ML gjør det samme, men går så ett skritt videre – det endrer programmets oppførsel basert på det det lærer.

En applikasjon av ML som har blitt veldig populær nylig er bildegjenkjenning. Disse applikasjonene må først trenes – med andre ord må mennesker se på en haug med bilder og fortelle systemet hva som er på bildet. Etter tusenvis og tusenvis av repetisjoner, lærer programvaren hvilke mønstre av piksler som vanligvis forbindes med hester, hunder, katter, blomster, trær, hus osv., og den kan gi en ganske god gjetning om innholdet i bilder.

Mange nettbaserte selskaper bruker også ML for å drive anbefalingsmotorene sine. For eksempel, når Facebook bestemmer hva som skal vises i nyhetsstrømmen din, når Amazon fremhever produkter du kanskje vil kjøpe og når Netflix foreslår filmer du kanskje vil se, er alle disse anbefalingene basert på spådommer som oppstår fra mønstre i deres eksisterende data.

Kunstig intelligens og maskinlæringsgrenser: dyp læring, nevrale nett og kognitiv databehandling

Selvfølgelig er «ML» og «AI» ikke de eneste begrepene knyttet til dette feltet av informatikk. IBM bruker ofte begrepet «kognitiv databehandling», som er mer eller mindre synonymt med kunstig intelligens.

Imidlertid har noen av de andre begrepene veldig unike betydninger. For eksempel er et kunstig nevralt nettverk eller nevralt nett et system som er designet for å behandle informasjon på måter som ligner på måten biologiske hjerner fungerer på. Ting kan bli forvirrende fordi nevrale nett har en tendens til å være spesielt gode på maskinlæring, så disse to begrepene blir noen ganger blandet sammen.

I tillegg gir nevrale nett grunnlaget for dyp læring, som er en spesiell type maskinlæring. Deep learning bruker et visst sett med maskinlæringsalgoritmer som kjører i flere lag. Det er delvis muliggjort av systemer som bruker GPUer til å behandle mye data på en gang.

Hvis du er forvirret av alle disse forskjellige begrepene, er du ikke alene. Informatikere fortsetter å diskutere deres eksakte definisjoner og vil sannsynligvis gjøre det i en stund fremover. Og ettersom selskaper fortsetter å øse penger inn i forskning på kunstig intelligens og maskinlæring, er det sannsynlig at noen flere termer vil dukke opp for å legge til enda mer kompleksitet til problemene.

Kategori: gpu

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.