Portāls ielādēsies pēc 15 sekundēm
Uz Jauns.lv
Shutterstock

"ChatGPT" vadītāji pieprasa ieviest regulējumu, lai nepieļautu, ka mākslīgais intelekts iznīcina cilvēci

Pasaulē
2023. gada 24. maijā 09:45 2023. gada 24. maijā 09:45
  Jauns.lv
"ChatGPT" izstrādātāja "OpenAI" vadītāji ir aicinājuši regulēt superinteliģentu mākslīgo intelektu, lai aizargātu cilvēci no riska kaut ko nejauši izveidot, kas var iznīcināt mūs visus gluži kā atombumba. 

Īsā piezīmē, kas publicēta uzņēmuma tīmekļa vietnē, līdzdibinātāji Gregs Brokmens un Iļja Sutskevers un izpilddirektors Sems Altmans aicināja starptautisku regulatoru sākt strādāt pie tā, kā pārbaudīt sistēmas, pieprasīt auditus, pārbaudīt atbilstību drošības standartiem un noteikt ierobežojumus izvietošanas pakāpēm un drošības līmeņiem, lai samazinātu eksistenciālo risku, ko šādas sistēmas varētu radīt.

"Iespējams, ka nākamo 10 gadu laikā mākslīgā intelekta sistēmas pārsniegs ekspertu prasmju līmeni lielākajā daļā jomu un veiks tikpat daudz produktīvu darbību kā viena no mūsdienu lielākajām korporācijām," viņi raksta. "Gan potenciālo pozitīvo, gan negatīvo aspektu ziņā superinteliģence būs spēcīgāka nekā citas tehnoloģijas, ar kurām cilvēcei bija jācīnās pagātnē. Mums var būt ievērojami labklājīgāka nākotne, taču mums jāpārvalda risks, lai tur nokļūtu. Ņemot vērā eksistenciāla riska iespēju, mēs nevaram būt pasīvi," teikts ziņojumā. 

Īsākā termiņā trijotne pieprasa zināmu koordinācijas pakāpi starp uzņēmumiem, kas strādā pie progresīvākās mākslīgā intelekta izpētes, lai nodrošinātu, ka arvien jaudīgāku modeļu izstrāde vienmērīgi integrējas sabiedrībā, vienlaikus izvirzot prioritāti drošībai. Šāda koordinācija varētu notikt, piemēram, ar valdības vadītu projektu vai koplīgumu, lai ierobežotu mākslīgā intelekta spēju pieaugumu.

Pētnieki jau gadu desmitiem ir brīdinājuši par iespējamiem superinteliģences riskiem, taču, tā kā mākslīgā intelekta attīstība ir palielinājusies, šie riski ir kļuvuši konkrētāki. ASV bāzētais mākslīgā intelekta drošības centrs (CAIS), kas strādā, lai samazinātu mākslīgā intelekta radītos riskus sabiedrības mērogā, apraksta astoņas katastrofāla un eksistenciāla riska kategorijas, ko superinteliģences attīstība varētu radīt.

Lai gan daži uztraucas par to, ka spēcīgs mākslīgais intelekts nejauši vai tīši iznīcina cilvēci, CAIS apraksta citus postošākus riskus. Pasaule, kurā mākslīgā intelekta sistēmām brīvprātīgi tiek nodots arvien vairāk darba, var novest pie tā, ka cilvēce zaudē pašpārvaldes spēju un kļūst pilnībā atkarīga no mašīnām, ko raksturo kā novājināšanos; un neliela cilvēku grupa, kas kontrolē spēcīgas sistēmas, varētu padarīt mākslīgo intelektu par centralizējošu spēku, izraisot vērtību bloķēšanu, mūžīgu kastu sistēmu starp pārvaldītajiem un valdniekiem.

"OpenAI" vadītāji saka, ka "šie riski nozīmē, ka cilvēkiem visā pasaulē vajadzētu demokrātiski izlemt par superinteliģences sistēmu robežām un noklusējuma iestatījumiem", taču atzīst, ka viņi vēl nezinām, kā izveidot šādu mehānismu.

Taču vadītāji arī saka, ka jaudīgu sistēmu turpmāka attīstība ir riska vērta.

Citi šobrīd lasa

"Aknām vitamīni ir vislielākie kaitnieki!" Gastroenterologs Ivars Tolmanis pastāsta to, ko daudzi nezina
Šausminošs iemesls, kāpēc dziedātāja Dafija pazuda no šovbiznesa skatuves slavas virsotnē
"Kur bija Vaira, tur bija Imants, un otrādi!" FOTO: sirsnīgā atmosfērā atklāta Imanta Freiberga biogrāfija 3
Pievienot komentāru