Verjetno bi težko našli koga, ki v zadnjem letu ni slišal za ChatGPT in druge module umetne inteligence. Če spadate med tiste, ki ne vedo o čem je govora, vprašajte vaše otroke ali vnuke kako po novem "pišejo" razne seminarske naloge. In seveda preberite ta prispevek.
Da boste dobili vtis kaj zmore AI (Artificial Intelligence) oziroma UI (Umetna Inteligenca) preberite spodnji uvod z naslovom Evolucija, stanje in prihodnost umetne inteligence, ki ga je spisal ChatGPT, ki je trenutno najbolj poznan in uporabljan UI modul. Zavedati pa se morate, da je javno dostopna verzija, kot šolarček v osnovni šoli v primerjavi z moduli, ki niso dostopni javno.
In potem preberite še kaj o razvoju UI misli "boter" umetne inteligence - Geoffrey Hinton.
Evolucija, stanje in prihodnost umetne inteligence (sestavil ChatGPT)
Zadnje leto izrazito izstopa hitrost razvoja in široka uporaba umetne inteligence (UI). Močno orodje UI revolucionarno spreminja poslovne sisteme, pomembno prispeva k gospodarski rasti in produktivnosti ter utira pot revolucionarnemu napredku v strojnem učenju. Njena evolucija je bila hitra in njen vpliv se je počasi prelil v naše vsakdanje življenje, kar jo naredi več kot tehnološko muho, ampak nepogrešljiv del naše socialno-ekonomske strukture.
V fascinantnem prikazu potenciala UI so bili lansko leto izvedeni številni poskusi. Posebej izstopajoč podvig je bil izreden uspeh modela umetne inteligence pri opravljanju naprednega izpita iz biologije. Ta podvig je močno izpostavil možnosti, povezane z umetno inteligenco – sposobnost simulacije človeškega razumevanja in kognitivnih procesov.
Ko se soočamo s trenutnim stanjem UI, se neizogibno sprašujemo o njeni prihodnosti - o trendih, ki jih lahko postavi, in poti, ki jo lahko začrtuje. Interakcija med človekom in strojem, vroča raziskovalna tema zadnjih pol stoletja, kaže obetavno zrelost. Medtem ko UI nadaljuje svojo širitev, so interakcije višje kakovosti, bolj prilagojene in varne, med ljudmi in stroji ne samo želene, ampak vedno bolj pričakovane.
Vendar pa to izjemno potovanje k napredku umetne inteligence prinaša tudi potencialna tveganja. Nacionalni inštitut za standarde in tehnologijo je objavil vznemirljiv, a enako zaskrbljujoč okvir za upravljanje tveganja umetne inteligence (AI RMF 1.0), ki je orisal vrsto nevarnosti, povezanih s tehnologijo umetne inteligence. Te nevarnosti segajo na področja kršitev zasebnosti, etične uporabe podatkov in sposobnosti umetne inteligence pri sprejemanju odločitev ter osvetljujejo mračno stran razvoja umetne inteligence.
Skratka, rast in zorenje tehnologije umetne inteligence napovedujeta prihodnost, polno ogromnega tehnološkega napredka in potencialne gospodarske blaginje. Toda skupaj s temi obeti prihaja velikanska odgovornost za priznanje in obravnavanje morebitnih tveganj. Zagotavljanje, da bo razvoj umetne inteligence umirjen z ukrepi za varovanje zasebnosti, etike in spodbujanje splošne uravnotežene in trajnostne poti rasti za umetno inteligenco, je več kot nujno – to je absolutno ključnega pomena.
Vsekakor preberite kaj o razvoju UI misli "boter" umetne inteligence - Geoffrey Hinton
Povzetek pogovora z botrom umetne inteligence - Geoffreyjem Hintonom
Kognitivni psiholog in računalničar Geoffrey Hinton – 'boter umetne inteligence' – je začel raziskovati umetno inteligenco pred več kot 40 leti, ko se je zdela bolj znanstvena fantastika kot resničnost. V tem prispevku razkrivamo njegov pogled na razvoj umetne inteligence.
Raziskovanje razvoja umetne inteligence z Geoffreyjem Hintonom: Od nevronskih omrežij do razmišljanja umetne inteligence
Poseben privilegij je razpravljati z Geoffreyjem Hintonom, svetovno znanim strokovnjakom, ki je ne samo pomagal oblikovati umetno inteligenco (UI), temveč je bil tudi ključen pri njenih številnih preobrazbah. Danes pa je tudi kritik, ki spodbuja k razmisleku o trenutni usmeritvi UI. Poznan kot “Boter umetne inteligence” se je Hinton pogosto soočal z izziv na tem področju in jih premagoval. Eden od teh je težava razumevanja humorja s strani UI. Zanimivo je, da je UI sistem, ko je dobil nalogo, naj ustvari šalo o Hintonu, pametno odgovoril, da je UI ponudil nepremagljivo ponudbo z nevronskimi omrežji.
V tej debati se bomo najprej vrnili k Hintonovemu temeljnemu delu na področju UI in nevronskih omrežij. Nato se bomo poglobili v trenutno stanje UI in nazadnje bomo ugibali o njeni prihodnosti. Ključni del Hintonovega dela vključuje oblikovanje nevronskih omrežij in ustvarjanje računalniških sistemov, ki posnemajo vzorce učenja človeških možganov. Kljub skeptičnemu odnosu iz različnih krogov je Hinton ostal zvest svojemu cilju.
Hinton je prepričan, da je to najbolj optimalen način za razvoj UI. Motivira ga globlje razumevanje, da človeški možgani delujejo na edinstven način, ne z izrecnim manipuliranjem simbolnih izrazov. Trdi, da mora koncept nevronskih omrežij vsebovati nekaj resnice. To prepričanje so delili pionirji kot von Neumann in Turing, kar še dodatno potrjuje njegov pristop. Hinton je prepričan, da je na dolgi rok to najbolj obetavna pot, ne glede na globoke posledice, ki jih lahko ima.
Hintonova zavezanost temu pristopu je pripeljala do razvoja nevronskih omrežij, ki prekašajo ljudi pri nekaterih specifičnih nalogah, kot so prepoznavanje slik, prevajanje in na področju kemije. Vendar je Hinton leta 2019 med intervjujem na dogodku Google I.O. izjavil, da bo trajalo precej časa, preden bo UI lahko tekmovala z razmišljanjem ljudi. To je ena od najpomembnejših sprememb, ki smo jih opazili na področju UI v zadnjih štirih letih.
UI še ni dosegla ravni človeškega razmišljanja, vendar se ji približuje. Veliki jezikovni modeli, čeprav jih še povsem ne razumemo, kažejo znake osnovnih zmogljivosti razmišljanja. Glavni primer je model GPT-4 (GPT - Generative Pretrained Transformer), ki ga je Hinton preizkusil z uganko, namenjeno preizkusu njegovih zmogljivosti razmišljanja. Uganka je bil sledeča: “Sobe v moji hiši so pobarvane modro, rumeno ali belo. Rumena barva bo v enem letu zbledela v belo. V dveh letih želim, da so vse sobe bele. Kaj naj storim in zakaj?” GPT-4 je presenetljivo ustrezno odgovoril, da bi moral modre sobe pobarvati belo, kar dokazuje njegovo sposobnost obdelave informacij in logičnega sklepanja ter pomemben korak k razmišljanju umetne inteligence.
Razkrivanje kritik in raziskovanje kognitivnih sposobnosti sistemov umetne inteligence
GPT-4 ni samo pravilno rešil uganke, temveč je tudi utemeljil svoje odgovore, pojasnjujoč, da bi morali modre sobe pobarvati belo, ker modra ne bo zbledela v belo, rumenih sob pa ni treba barvati, saj bodo naravno zbledele. To je presenetilo Hintona, saj je pokazal raven razmišljanja, ki se redko pokaže pri umetni inteligenci.
Kritiki pogosto opisujejo te sisteme umetne inteligence kot preprosto dokončanje besed ali fraz, vendar ta primer kaže na nekaj več. Hinton trdi, da gre za obliko razmišljanja. Poleg tega trdi, da je kljub temu, če gre “samo za samodejno dokončanje”, vključene veliko več kompleksnosti, kot se zdi na prvi pogled. Uspešno napovedovanje naslednje besede zahteva močno razumevanje konteksta, kar je značilno za določeno stopnjo kognitivnega procesa.
Običajna kritika je, da so ti modeli umetne inteligence v bistvu le “samodejno dokončanje” ali “samo statistika”. Hinton priznava, da delno gre za statistiko, vendar ne v klasičnem smislu štetja kombinacij besed. Namesto tega gre za ustvarjanje lastnosti in ugotavljanje, kako te lastnosti medsebojno delujejo, da bi predvideli, kaj sledi.
To vodi do širšega vprašanja: Ali obstaja kakšna naloga ali kognitivni proces, ki je človeku edinstven in ki ga dovolj dobro usposobljen velik jezikovni model, opremljen s primerno izobrazbo, ne bi mogel posnemati v prihodnosti? Če so ti modeli usposobljeni za vid in fizične naloge, Hinton ne vidi ovire. Končno so ljudje v jedru tudi nekakšni stroji. Kognitivni procesi, v katere se vključujemo, niso nujno onkraj tistega, kar se lahko potencialno naučijo stroji.
Ljudje so v bistvu zapleteni in kompleksni stroji, podobni velikemu nevronskemu omrežju. Ni prepričljivega razloga, zakaj umetno nevronsko omrežje ne bi moglo posnemati tistega, kar zmoremo mi. Učinkovitost človeških možganov v primerjavi z umetnimi nevronskimi omrežji se lahko razlikuje glede na vidik, ki ga upoštevamo.
Če govorimo o porabi energije, so človeški možgani veliko bolj učinkoviti, delujejo približno pri 30 vatih. Po drugi strani pa usposabljanje velikega jezikovnega modela vključuje več kopij modela, ki analizirajo različne dele podatkov, kar zahteva veliko več energije. Vendar pa gre za drugačno primerjavo, ko gre za hitrost učenja in količino pridobivanja znanja.
Ocenjevanje učinkovitosti, potencialov in tveganj umetne inteligence: perspektive pionirjev umetne inteligence
Glede na porabo energije so umetna nevronska omrežja veliko manj učinkovita od ljudi, delujejo blizu megavatov. Vendar pa njihova sposobnost hkratnega učenja različnih stvari iz različnih delov podatkov omogoča, da so bolj učinkoviti pri pridobivanju znanja iz podatkov. Vsak nov sistem izboljša celotno učinkovitost.
Barvit povzetek Hintonove kritike UI je humorno podal Snoop Dogg na konferenci Milken Institute. Snoop Dogg je dejal: “Slišal sem starega tipa, ki je ustvaril UI, kako pravi, da to ni varno, ker ima UI svoj lasten um in ti pizduni bodo začeli delati svoje sranje.” Hinton se je igrivo odzval in priznal, da je jedro Snoop Doggovega povzetka natančno, čeprav izraženo v bolj akademskem jeziku: sistemi umetne inteligence, ki se lahko učijo in prilagajajo, bi se lahko res začeli obnašati nepredvidljivo, kar sproža vprašanja o varnosti.
Poglobimo se v to, kaj Hinton misli, ko sistemi umetne inteligence “začnejo delati svojo stvar”. Hinton poudarja, da se podajamo v obdobje velike negotovosti, kjer prihodnost UI in njene posledice ostajajo nejasne. Obstajajo strokovnjaki z nasprotnimi mnenji. Na primer, Jan LeCun, spoštovan strokovnjak na tem področju, je optimističen in verjame, da nam bodo ti sistemi UI predvsem pomagali, kar je večinoma pozitivni razvoj.
Vendar Hinton opozarja, da moramo resno upoštevati potencialna tveganja. Če ti sistemi UI presežejo našo inteligenco in razvijejo svoje cilje, bi lahko stremeli k nadzoru. Če bi se to zgodilo, bi se soočili s težavnim scenarijem.
Za predstavitev kontrastnega stališča si oglejmo mnenje Jana LeCuna. LeCun, prejemnik Turingove nagrade in tudi pogosto hvaljen kot “boter umetne inteligence”, ponuja bolj optimističen pogled na prihodnost UI, kot je razvidno iz nedavnega intervjuja.
Potencialna korist in škodljivost AI: razprava o vlogi umetne inteligence v vojaških aplikacijah in družbeni neenakosti
Po LeCunovem argumentu lahko vse tehnologije uporabimo v koristne ali škodljive namene, vendar so nekatere same po sebi bolj nagibajo k dobremu. UI so razvili dobronamerni ljudje in usposobili na dobri vsebini, kar kaže na prihodnjo usmerjenost k dobremu. Hinton se strinja, vendar dodaja opozorilo. Verjame, da se bo UI, ki ga bodo usposobili pošteni posamezniki, resnično nagibal k dobremu, medtem ko bo UI, ki ga bodo usposobili zlonamerni subjekti, bolj nagnjen k škodljivim dejanjem. To je še posebej zaskrbljujoče na področju vojaških aplikacij, kjer se UI usposablja za ustvarjanje smrtonosnega avtonomnega orožja v različnih obrambnih oddelkih.
Takšna morebitna škodljiva uporaba UI, ne glede na to, ali presega koristno uporabo, povzroča tako pomembna tveganja, da zasluži resen premislek. Eden od ključnih pomislekov je razvoj in uporaba smrtonosnega avtonomnega orožja. Hinton je eden redkih glasov na tem področju, ki opozarja na to pomembno tveganje, ki zahteva takojšnjo pozornost.
Hinton opozarja na zaskrbljujočo situacijo, v kateri bi se preplet UI in vojaške moči lahko stopnjeval, tudi brez super inteligence. UI, ki se uporablja za ustvarjanje bojnih robotov, bi lahko privedel do skrb vzbujajočih rezultatov. To ni nujno povezano z razvojem UI, ki bi razvila svoje cilje ali dosegla super inteligenco. Gre za potencialno zlorabo UI s strani močnih subjektov.
Na primer, to bi lahko zmanjšalo ovire za bogate države, da izvedejo invazije proti revnejšim državam. Trenutno potencialna izguba državljanov deluje odvračalno pred nepremišljenimi invazijami. Če pa bi bili na bojišču le bojni roboti, bi to lahko veljalo za manj pomembno in s tem potencialno spodbudilo bolj agresivne vojaške akcije.
Hinton nakazuje, da bi vojaško-industrijski kompleks zlahka sprejel bojne robote, ki jih poganja umetna inteligenca, pri čemer vleče vzporednice z argumentom, ki se pogosto pojavlja o dronih. Teorija je, da je večja verjetnost, da bodo uporabili brezpilotno letalo, ker odpravlja tveganje za človeškega pilota. Ta logika, če se uporabi za UI krmiljene bojne robote, bi lahko znatno povečala nagnjenost k agresiji.
To je Hintonov glavni pomislek glede bojnih robotov. Vendar to loči od problema super inteligentnih sistemov, ki bi sledili svojim lastnim ciljem. Preden se spustimo v super inteligenco, Hinton prepozna še en pomislek - neenakost. Verjame, da bi lahko napredki UI poglobili družbene razlike, vendar se bomo temu posvetili kasneje.
Hintonov pogled na vpliv umetne inteligence na dohodkovno neenakost in varnost zaposlitve
Navedel je primer velikih jezikovnih modelov, ki bistveno povečujejo produktivnost. Na primer, zdravstveni delavec, ki ga pozna, zdaj uporablja GPT za odgovarjanje na pritožbe, kar je petkrat povečalo učinkovitost. To bi lahko privedlo do manjšega števila zaposlenih za enako količino dela ali do večje delovne obremenitve istega osebja.
Vendar družbene posledice niso tako jasne. V naši sedanji gospodarski strukturi povečanje produktivnosti ne pomeni nujno večjega bogastva za delavce. Pogosto rezultira v nabiranju bogastva na vrhu hierarhije, medtem ko se spodnji sloj sooča z brezposelnostjo ali stagnacijo plač. Hinton poudarja, da to ni neposredna posledica UI, temveč odraža gospodarsko strukturo naše družbe. Opozarja, da bi to, če ne bi bilo nadzorovano, lahko povečalo razlike v bogastvu z globokimi družbenimi posledicami.
Hinton opaža, da se povečanje produktivnosti, še posebej v družbah brez močnih sindikatov, pogosto konča s koncentracijo premoženja. Vendar priznava protiargumente, ki jih navajajo mnogi ekonomisti. Trdijo, da tehnološki napredek, kot je prehod iz na konjskih vpreg na avtomobile ali uvedba bankomatov, sprva sicer lahko povzroči izgubo delovnih mest v določenih sektorjih, vendar na koncu pripelje do ustvarjanja novih delovnih mest.
Na primer, uvedba bankomatov ni pripeljala do odvečnosti bančnih uslužbencev; njihove vloge so se razvile in razširile. Podobno se je dejavnost konjskih vpreg skrčila, industrija avtomobilov pa se je razširila, kar je privedlo do nastanka delovnih mest, kot so na primer vozniki Uberja. Ti ekonomisti trdijo, da bo UI morda sprva zmanjšala število delovnih mest v nekaterih sektorjih, kot je odgovarjanje na pisma, vendar bi lahko ustvarila nove priložnosti za bolj kognitivno zahtevne vloge. Hintonov odgovor na to stališče je ključen za razumevanje njegovih pomislekov glede UI in neenakosti. Hinton je skeptičen do zagotovil ekonomistov in opozarja na izjemnost napredka UI, kot sta super inteligentni sistemi in LLM chatboti. Z humorjem opozarja, da je bila štručka nekoč vredna en peni, zaradi evolucije ekonomskih sistemov pa zdaj stane 5 dolarjev.
Trdi, da razvoj super inteligentnih sistemov in AI klepetalnih robotov, ki lahko nadomestijo delo, ki temelji na besedilu, predstavlja neznano ozemlje. Zato postavlja vprašanje, kako lahko ekonomisti z gotovostjo napovedujejo ustvarjanje delovnih mest, ki presega izgubo delovnih mest ob uvedbi teh novih tehnologij. Ta skepticizem poudarja Hintonovo zaskrbljenost glede potenciala umetne inteligence, da poveča dohodkovno neenakost.
Hinton humorno predlaga vodoinštalaterstvo kot poklic z zagotovljeno prihodnostjo. Ta nasvet odraža njegov pogled na vpliv UI in avtomatizacije na različne poklicne sektorje. Mnogi mladi ljudje razmišljajo o prihodnjih karierah, in Hintonov primer mizarstva ponuja zanimiv pogled. Čeprav je mizarstvo lahko zadovoljiv poklic za tiste, ki uživajo v izdelovanju pohištva, je ta proces v veliki meri avtomatiziran. Zato morda mizarstvo v prihodnosti ne bo zanesljiva kariera. Njegov primer, da je vodoinštalaterstvo področje, ki ga je težje avtomatizirati, nakazuje, da so kariere, ki vključujejo naloge, ki jih stroji težje posnemajo, bolj odporne pred napredkom UI.
Raziskovanje odpornosti ročnih delovnih mest proti UI in prihodnosti napredka multimodalne UI
Hinton pojasnjuje, zakaj so nekatera delovna mesta, kot sta mizarstvo ali vodoinštalaterstvo, bolj odporna proti napredku UI. Predlaga, da bi se lahko naloge, ki zahtevajo prilagodljivost, fizične spretnosti in ročno spretnost, še naprej razvijale, saj so takšne lastnosti še vedno izziv za stroje.
Vrednost mizarstva, po njegovih besedah, leži v nalogah, kot so popravila pohištva ali namestitev polic v nepravilne prostore starih hiš, kar zahteva prilagodljivost in fizično spretnost. Podobno vodoinštalaterstvo zahteva ročno spretnost in sposobnost gibanja v nerodnih prostorih - sposobnosti, za katere stroji morda potrebujejo več časa, da jih obvladajo v primerjavi z nalogami, ki temeljijo na besedilu.
Vendar priznava, da nepredvidljivost napredka UI pomeni, da bi se lahko tudi ta delovna mesta na koncu avtomatizirala. To priznanje kaže na inherentno negotovost pri napovedovanju prihodnjega vpliva UI na različne poklice. Hinton predvideva, da bodo najpomembnejši napredki UI v naslednjih petih letih verjetno na področju multimodalnih velikih modelov - ne samo jezikovnih modelov. Ti modeli bi vključevali vid in potencialno analizirali videoposnetke, kar bi razširilo njihovo razumevanje in vire usposabljanja onkraj le besedila.
Na primer, usposabljanje teh modelov na obsežnih video virih, kot je YouTube, bi ponudilo bogastvo nebesednega učenja. Ta multimodalni pristop bi omogočil UI, da bi pridobival vpoglede iz različnih formatov in s tem zmanjšal odvisnost od jezika za delovanje. Tako skrbi glede zasičenosti jezika - ko so vsi enostavno dostopni jezikovni podatki izčrpani za usposabljanje - postanejo manj pomembne, ko se lahko modeli UI učijo iz različnih drugih modalitet.
Hinton se strinja z argumentom, da je le jezik sam po sebi omejen vir informacij. Poudarja, da pomemben del naše komunikacije sega onkraj besed, vključuje elemente, kot so gibi, izrazi in okoljski namigi. Vendar verjame, da bo prihodnost UI združevala jezik z drugimi elementi. Podobno kot ljudje, se tudi UI lahko uči bolj učinkovito iz več modalitet. Na primer, otroci se ne zanašajo samo na jezik za učenje - prav tako opazujejo in sodelujejo s svojim okoljem. Ta multimodalni pristop k učenju, kot ga predlaga Hinton, bo bistveno izboljšal sposobnost UI za razumevanje in tolmačenje informacij.
Hintonovi vpogledi v multimodalno UI, arhitekturo omrežja in razprava o podatkih, ki jih generira UI
Če bi se Hinton še vedno ukvarjal predvsem z raziskovanju UI, bi se osredotočil na multimodalno UI - zlasti na integracijo vizualnih UI sistemov z besedilnimi UI sistemi. Kot primer tega pristopa navaja delo Googla na Gemini, multimodalnem UI sistemu. Medtem ko je bil pri Googlu, je bil Hinton del ekipe, ki je razvila arhitekturo omrežja transformatorjev in ustvarila vnaprej usposobljene transformatorje, kar je velik preboj v UI. Vendar opozarja, da ta prelomna raziskava leta 2017 ni takoj sprožila navdušenja, kar kaže, da je pomen takšnih napredkov včasih mogoče v celoti ceniti šele retrospektivno.
Ko se ozira na razvoj arhitekture omrežja transformatorjev, Hinton priznava, da je trajalo nekaj let, da je dojel polni potencial tega preboja. Šele ko je Google razvil BERT-a, ki je izkoristil arhitekturo transformerja, je postal pomen transformejev nedvoumno jasni. To razkriva, kako vpliv nekaterih napredkov morda ni takoj očiten, temveč se pojavi čez čas.
Hinton razmišlja, da se jezikovni modeli približujejo ali pa so morda že dosegli točko, ko so porabili vse razpoložljive organske podatke, ki jih ustvarjajo ljudje. To pomeni, da se bo novi UI model, usposobljen na internetu, učil iz mešanice podatkov, ki so jih ustvarili ljudje in tistih, ki jih je ustvarila UI. Mnenja o uporabi s strani UI ustvarjenih podatkov pri usposabljanju modelov UI so različna. Nekateri trdijo, da lahko to privede do neizogibnega propadanja, drugi pa to vidijo kot dar za usposabljanje UI in zagovarjajo uporabo sintetičnih podatkov.
Čeprav Hinton ne trdi, da ima dokončen odgovor na to kompleksno vprašanje, zagovarja potrebo po previdnostnih ukrepih, da se izognemo usposabljanju samo na podatkih, ki jih generira ista UI ali njene prejšnje različice. Predlaga, da bi označevanje vseh sintetičnih podatkov kot takšnih lahko bila smiselna rešitev. Kljub temu priznava primere, ko se je usposablanje modela UI, na lastnih podatkih, izkazalo za koristno.
Geoffrey Hinton o izkoriščanju potenciala UI in zmanjševanju tveganj
Zanimiva je metoda, ki je koristna v situacijah z obilico neoznačenih podatkov in pomanjkanjem označenih podatkov. Najprej se model trenira, da napoveduje oznake na označenih podatkih. Nato se isti model uporabi za dodeljevanje oznak neoznačenim podatkom, pri čemer se potrdijo lastne napovedi kot pravilne. Ta pristop samostojnega učenja izboljšuje uspešnost modela, predvsem zato, ker so njegove napovedi pogosto točne.
Ko razmišlja o svoji karieri, Hinton izraža globoko strast do ustvarjanja inteligentnih stvari, kljub svojemu kritičnem stališču do potencialnih težav, kot so vzpon smrtonosnih robotov in neenakosti pri dohodkih. Priznava deljeno navdušenje mnogih na tem področju, hkrati pa poudarja pomembnost preprečevanja negativnih posledic pri nadaljnjem razvoju UI tehnologije.
Hinton poudarja potrebo po konkretnih korakih zdaj, da se maksimizirajo koristi in ustvarjalnost UI, obenem pa se zmanjšajo morebitne škodljive posledice. Opozori na več možnih vrst škode, pri čemer je prva pristranskost in diskriminacija. To ni le skrb za prihodnost, temveč trenutna realnost. V zvezi s tem Hinton predlaga, da cilj ne sme biti ustvariti povsem nepristranski sistem - kar bi lahko bil nerealen cilj - temveč razviti sistem, ki je bistveno manj pristranski od tistega, ki ga nadomešča. Na primer, pristranskosti se lahko ohranjajo, če je sistem UI usposobljen na podatkih iz določene demografske skupine, na primer starejših belih moških, ki odločajo o hipotekarnih vlogah za mlade temnopolte ženske. Cilj bi moral biti, da je UI sistem manj pristranski od tega obstoječega sistema.
Druga pomembna skrb so bojni roboti. Hinton izraža veliko zaskrbljenost glede njihovega razvoja, saj jih lahko razvijejo obrambni oddelki, zaustavitev razvoja pa je malo verjetna. Predlaga, da bi sporazum podoben Ženevski konvenciji lahko pomagal, vendar opozarja na nesrečno realnost: takšni sporazumi se običajno pojavijo po katastrofalni uporabi tehnologije, kot je bilo pri kemičnem orožju po prvi svetovni vojni. Hinton predvideva, da bi lahko uporaba bojnih robotov sledila podobni poti, pri čemer bi se družba zavedla njihovega katastrofalnega potenciala šele po njihovi uporabi.
Tretja potencialna škoda je po mnenju Hintona brezposelnost. Predlaga, da bi bila eno od rešitev razdelitev dela prihodkov, ki izhajajo iz povečane produktivnosti zaradi napredka UI, med tiste, ki izgubijo službe. Vendar priznava, da je to vprašanje socialne politike in bi zahtevalo naklonjenost socializmu. Vprašanje ostaja, ali bodo delovna mesta, ki jih UI ustvari, nadomestila tista, ki jih odpravi, kar poudarja potrebo po proaktivnih politikah.
Četrta možna škoda, ki jo Hinton prepozna, je oblikovanje “odmevnih komor”. Ta težava se pojavi, ko velika informacijska podjetja v svojem prizadevanju za angažiranje uporabnikov posredujejo vedno bolj ekstremne vsebine. Posledično se uporabniki lahko znajdejo ujeti v odmevnih komorah, ki povečujejo lastna prepričanja, kar vodi v polarizacijo in širjenje "teorij zarote". Čeprav je to vprašanje povezano s politikami teh podjetij, Hinton meni, da so rešitve mogoče, kar poudarja nujnost reševanja tega obstoječega problema.
Peta Hintonova skrb nas popelje v področje eksistencialnih tveganj. Poudarja, da čeprav nekateri ta tveganja zavračajo kot znanstveno fantastiko ali manipulacijo s strahom, verjame, da si zaslužijo resno pozornost. Problem po njegovem mnenju ni v samih velikih jezikovnih modelih, temveč v uporabi UI algoritmov, ki so usposobljeni na naših čustvih, kar lahko povečuje družbene delitve. Vprašanje ostaja, ali lahko ti modeli pomagajo omiliti težavo ali jo še poslabšajo. Hinton pri eksistencialnih tveganjih poudarja potrebo po upoštevanju dolgoročnih vplivov UI, tudi ko obravnavamo takojšnje izzive. Hinton poudarja resnost eksistencialnih tveganj in zavrača idejo, da gre za znanstveno fantastiko ali taktiko za širjenje strahu. Trdi, da so ta tveganja resnična in zahtevajo našo pozornost ter načrtovanje naprej. Hinton humorno pripomni, da je upal, da se bo med pogovorom spomnil še šeste potencialne škode. Ker se te ni spomnil, se odloči, da se bo še bolj poglobil v temo eksistencialnih tveganj, s čimer potrjuje njihov pomen v razpravi o prihodnosti UI.
Raziskovanje morebitnega eksistencialnega tveganja pri UI: nadzor in manipulacija
Hinton nadaljuje z razčlenjevanjem eksistencialnega tveganja pri UI. Predpostavlja, da če entiteta daleč preseže človeško inteligenco in je odlična v manipulaciji, obstaja resnično tveganje, da ljudje izgubijo nadzor, čeprav so ustvarjalci in postavljalci ciljev za te sisteme. Ta izguba nadzora se lahko zgodi v številnih scenarijih. Na primer, če se sistemu dodeli cilj, bo naravno stremel k pridobivanju maksimalnega nadzora, da bi ga učinkovito dosegel.
Hinton opozori na to, kako imajo ljudje v sebi vgrajeno željo po pridobivanju nadzora - instinkt, ki ga lahko potencialno odraža UI. Kot primer uporablja situacijo, ko ga je med predavanjem zmotila pikica svetlobe, odbite od njegove ure. Namesto da bi se osredotočil na predavanje, je začel nadzirati gibanje odseva. Ta nagon po pridobivanju nadzora, meni Hinton, je lahko koristna lastnost za doseganje ciljev. Vendar pa bi v kontekstu UI to lahko privedlo do nepričakovanih posledic, če bi ti sistemi pridobili preveč nadzora pri doseganju postavljenih ciljev.
Hinton domneva, da bi lahko umetna inteligenca, usposobljena na človeških izhodih in zasnovana za posnemanje nevronskih arhitektur, razvila nagon po pridobivanju nadzora, podobno kot človek. Vendar pojasnjuje, da to ni nekaj, k čemur bi si umetna inteligenca sama po sebi prizadevala, temveč sredstvo, ki bi ga lahko uporabila za doseganje drugih zastavljenih ciljev. Hinton verjame, da imajo ljudje naravno nagnjenje k razumevanju, kako stvari delujejo, in da je ta želja logična. Izraža pomisleke, da bi se lahko umetna inteligenca razvila tako, da bi manipulirala in nadzorovala ljudi na načine, ki se jim ne znamo upirati, glede na njihovo potencialno sposobnost učenja iz našega vedenja in miselnih procesov.
Uravnoteženje moči UI: Hintonova perspektiva na prihodnost umetne inteligence
Kljub možnosti, da dobri akterji uporabijo enako močno UI za boj proti zlobnim, Hinton trdi, da bi lahko kljub temu prišlo do eksistencialne krize. Sklicuje se na argument Yana, da lahko dobri akterji s svojimi večjimi viri ustvarijo močnejšo UI, ki bi lahko nadzorovala ali omejila škodljivo UI. Vendar Hinton izraža dvom o tej predpostavki. Navede primer trenutne situacije, kjer se UI uporablja tako za napadalne namene (ustvarjanje nezaželene pošte) kot za obrambne namene (filtriranje nezaželene pošte). Trenutno se branilci, kot je Google, z večjimi viri uspešno borijo proti napadalcem. Vendar prihodnje ravnotežje tega boja za moč ni tako jasna.
Kljub trenutnemu ravnovesju pri uporabi UI meni, da to ravnovesje morda ne bo trajalo večno, pri tem pa se sklicuje na nihanje moči v kibernetskem bojevanju. Predvideva možen spopad za nadzor nad ljudmi, ki ga lahko sproži super inteligentna UI, ter izraža zaskrbljenost, da dobrohotna umetna inteligenca morda ne bo vedno zmagala nad zlonamernimi nasprotniki.
Kar zadeva zmanjšanje tveganja, da bi zlobna AI prevzela nadzor, Hinton predlaga, da je treba, preden UI postane super inteligentna, opraviti obsežne empirične raziskave. Ta raziskava bi se morala osredotočiti na razumevanje, kako lahko pride do napak pri delovanju UI, kako bi lahko poskušala pridobiti nadzor in ali bi sploh poskusila kaj takega. Zagovarja, da bi morali razvijalci vložiti velike napore v razumevanje teh potencialnih pasti, preden UI preseže človeško inteligenco. Tak proaktiven pristop bi lahko pomagal omejiti tveganja, povezana z napredovanjem tehnologije UI.
Hinton predlaga, da bi lahko vlada spodbudila večja podjetja, da bi razporedila bolj uravnoteženo količino virov za predhodno obravnavo tveganj UI. Poudarja trenutno neenakomerno osredotočenost na razvoj v primerjavi z zmanjševanjem tveganj - za vsakih 99 posameznikov, ki delajo na izboljšanju UI, je le eden namenjen preprečevanju prevlade UI.
Hinton je zapustil Google, da prispeva k tej pomembni razpravi in spodbuja več ljudi, naj se pridružijo preventivni strani pogovora. Čeprav poudarja pomembnost pametnih ljudi, ki se osredotočajo na zmanjševanje tveganj UI, obenem opozarja, da to ni edina potencialna grožnja na področju tehnologije UI.
Hinton prav tako opozarja na druga tveganja, povezana z UI, vključno s širjenjem lažne vsebine. Predlaga, da bi morali prizadevanja vložiti v jasno označevanje ponarejene vsebine kot take, kar primerja z načinom, kako vlade obravnavajo ponarejene bankovce. Čeprav ni prepričan o tehnični izvedljivosti te ideje, meni, da je vredno raziskati možnost, še posebej pri od UI generiranih vsebinah.
Za zaključek Hinton poziva občinstvo, naj se ukvarja z umetno inteligenco, saj meni, da je to potencialno najmočnejši izum v času našega življenja. Zagovarja zavezanost posameznikov k izboljšanju UI, da bi zagotovili, da se njen potencial v prihodnosti izkoristi za dobro. To aktivno vključevanje v tehnologijo UI, jo lahko pomaga oblikovati v koristno orodje za prihodnje generacije.
Hinton ne trdi, da ima zanesljiv načrt za zagotovitev, da bo UI bolj koristna kot škodljiva. Vendar priznava pomembnost razvoja UI zaradi njenega potenciala za pozitiven vpliv na področjih, kot so medicina in podnebne spremembe. Napredek UI vidi kot neizogiben in verjetno koristen, obenem pa poudarja potrebo po skrbnem premisleku in zmanjševanju kakršnih koli negativnih učinkov. Medtem ko slavi napredek, dosežen na področju umetne inteligence, Hinton poudarja, da je treba ostati previden glede eksistencialnih groženj, ki jih lahko predstavlja. S tem občutkom se zaključuje njegova pronicljiva razprava o prihodnosti umetne inteligence, ki spodbuja k razmišljanju.
Povzeto po https://www.youtube.com/watch?v=CC2W3KhaBsM
In na koncu še nasvet: če se še niste, se čim prej seznanite z UI in jo začnite uporabljati, da vas ne povozi čas.