Jinsi AI Inaweza Kufuatilia Watoto Wake Hatari

Orodha ya maudhui:

Jinsi AI Inaweza Kufuatilia Watoto Wake Hatari
Jinsi AI Inaweza Kufuatilia Watoto Wake Hatari
Anonim

Njia Muhimu za Kuchukua

  • Jarida jipya linadai kuwa akili bandia inaweza kubainisha ni miradi gani ya utafiti inaweza kuhitaji udhibiti zaidi kuliko mingine.
  • Ni sehemu ya juhudi zinazoongezeka za kugundua ni aina gani ya AI inaweza kuwa hatari.
  • Mtaalamu mmoja anasema hatari halisi ya AI ni kwamba inaweza kuwafanya wanadamu kuwa bubu.

Image
Image

Akili Bandia (AI) hutoa manufaa mengi, lakini pia baadhi ya hatari zinazoweza kutokea. Na sasa, watafiti wamependekeza mbinu ya kuweka jicho kwenye ubunifu wao wa kompyuta.

Timu ya kimataifa inasema katika karatasi mpya kwamba AI inaweza kubainisha ni aina gani za miradi ya utafiti inaweza kuhitaji udhibiti zaidi kuliko mingine. Wanasayansi hao walitumia modeli inayochanganya dhana kutoka kwa biolojia na hisabati na ni sehemu ya juhudi zinazoongezeka za kugundua ni aina gani ya AI inaweza kuwa hatari.

"Bila shaka, ingawa matumizi hatari ya 'sci-fi' ya AI yanaweza kutokea ikiwa tutaamua hivyo […], kinachofanya AI kuwa hatari si AI yenyewe, lakini [jinsi tunavyoitumia]," Thierry Rayna, mwenyekiti wa Teknolojia ya Mabadiliko, katika École Polytechnique nchini Ufaransa, aliiambia Lifewire katika mahojiano ya barua pepe. "Utekelezaji wa AI unaweza kuwa ama uimarishaji wa umahiri (kwa mfano, unaimarisha umuhimu wa ujuzi na maarifa ya binadamu/mfanyikazi) au kuharibu uwezo, yaani, AI hufanya ujuzi na maarifa yaliyopo yasiwe ya manufaa au ya kizamani."

Vichupo vya Kuweka

Waandishi wa jarida la hivi majuzi waliandika katika chapisho kwamba walitengeneza kielelezo cha kuiga mashindano dhahania ya AI. Waliendesha uigaji huo mamia ya mara ili kujaribu kutabiri jinsi mbio za ulimwengu halisi za AI zinavyoweza kufanya kazi.

"Kigezo tulichopata kuwa muhimu hasa kilikuwa "urefu" wa mbio-wakati mbio zetu zilizoiga zilichukua kufikia lengo lao (bidhaa inayofanya kazi ya AI), " wanasayansi waliandika. "Mashindano ya AI yalipofikia malengo yao haraka, tuligundua kuwa washindani ambao tungeweka alama za kupuuza tahadhari za usalama kila wakati walishinda."

Kinyume chake, watafiti waligundua kuwa miradi ya muda mrefu ya AI haikuwa hatari kwa sababu washindi hawakuwa wale ambao walipuuza usalama kila wakati. "Kwa kuzingatia matokeo haya, itakuwa muhimu kwa wasimamizi kubaini ni kwa muda gani mbio tofauti za AI zinaweza kudumu, kwa kutumia kanuni tofauti kulingana na nyakati zinazotarajiwa," waliandika. "Matokeo yetu yanapendekeza kwamba sheria moja kwa mbio zote za AI-kutoka mbio za mbio hadi marathoni-itaongoza kwa baadhi ya matokeo ambayo ni mbali na bora."

David Zhao, mkurugenzi mkuu wa Coda Strategy, kampuni inayoshauriana kuhusu AI, alisema katika mahojiano ya barua pepe na Lifewire kwamba kutambua AI hatari inaweza kuwa vigumu. Changamoto ziko katika ukweli kwamba mbinu za kisasa za AI huchukua mbinu ya kujifunza kwa kina.

"Tunajua kujifunza kwa kina hutoa matokeo bora katika hali nyingi za utumiaji, kama vile utambuzi wa picha au utambuzi wa matamshi," Zhao alisema. "Hata hivyo, haiwezekani kwa wanadamu kuelewa jinsi algorithm ya kujifunza kwa kina inavyofanya kazi na jinsi inavyozalisha matokeo yake. Kwa hivyo, ni vigumu kujua ikiwa AI inayozalisha matokeo mazuri ni hatari kwa sababu haiwezekani kwa wanadamu kuelewa kinachoendelea."

Programu inaweza kuwa "hatari" inapotumiwa katika mifumo muhimu, ambayo ina udhaifu unaoweza kutumiwa na watendaji wabaya au kutoa matokeo yasiyo sahihi, Matt Shea, mkurugenzi wa mikakati katika kampuni ya AI MixMode, alisema kupitia barua pepe. Aliongeza kuwa AI isiyo salama inaweza pia kusababisha uainishaji usiofaa wa matokeo, upotevu wa data, athari za kiuchumi au uharibifu wa kimwili.

"Kwa programu ya kitamaduni, wasanidi programu huweka algoriti ambazo zinaweza kuchunguzwa na mtu ili kubaini jinsi ya kuziba athari au kurekebisha hitilafu kwa kuangalia msimbo wa chanzo," Shea alisema."Kwa AI, ingawa, sehemu kubwa ya mantiki huundwa kutoka kwa data yenyewe, iliyosimbwa katika miundo ya data kama mitandao ya neva na kadhalika. Hii inasababisha mifumo ambayo ni "sanduku nyeusi" ambayo haiwezi kuchunguzwa ili kupata na kurekebisha udhaifu. kama programu ya kawaida."

Hatari Mbele?

Ingawa AI imeonyeshwa katika filamu kama vile The Terminator kama nguvu mbaya inayonuia kuharibu ubinadamu, hatari halisi inaweza kuwa mbaya zaidi, wataalam wanasema. Rayna, kwa mfano, anapendekeza kwamba AI inaweza kutufanya wajinga.

“Inaweza kuwanyima wanadamu mafunzo ya akili zao na kukuza utaalamu,” alisema. "Unawezaje kuwa mtaalam wa mtaji ikiwa hautumii wakati wako mwingi kusoma programu za kuanza? Mbaya zaidi, AI inajulikana sana "sanduku nyeusi" na inaelezewa kidogo. Kutojua kwa nini uamuzi fulani wa AI ulichukuliwa inamaanisha kutakuwa na kidogo sana kujifunza kutoka kwake, kama vile huwezi kuwa mkimbiaji mtaalam kwa kuendesha gari kuzunguka uwanja kwenye Segway.”

Ni vigumu kujua kama AI inayotoa matokeo mazuri ni hatari, kwa sababu haiwezekani kwa wanadamu kuelewa kinachoendelea.

Labda tishio la haraka zaidi kutoka kwa AI ni uwezekano kwamba inaweza kutoa matokeo yenye upendeleo, Lyle Solomon, wakili anayeandika juu ya athari za kisheria za AI, alisema katika mahojiano ya barua pepe.

"AI inaweza kusaidia katika kukuza migawanyiko ya kijamii. AI kimsingi imeundwa kutokana na data iliyokusanywa kutoka kwa wanadamu," Solomon aliongeza. "[Lakini] licha ya data kubwa, ina vijisehemu vidogo na haijumuishi yale ambayo kila mtu anafikiri. Kwa hivyo, data inayokusanywa kutoka kwa maoni, ujumbe wa umma, ukaguzi, n.k., yenye upendeleo wa asili itafanya AI kuongeza ubaguzi na chuki."

Ilipendekeza: