Kwa nini Programu ya Kusoma Hisia Inaweza Kukiuka Faragha Yako

Orodha ya maudhui:

Kwa nini Programu ya Kusoma Hisia Inaweza Kukiuka Faragha Yako
Kwa nini Programu ya Kusoma Hisia Inaweza Kukiuka Faragha Yako
Anonim

Njia Muhimu za Kuchukua

  • Zoom inaripotiwa ilisema itatumia AI kutathmini hisia au kiwango cha ushiriki cha mtumiaji.
  • Makundi ya kutetea haki za binadamu yanaiomba Zoom kufikiria upya mpango wake kutokana na masuala ya faragha na usalama wa data.
  • Baadhi ya makampuni pia hutumia programu ya kutambua hisia wakati wa mahojiano ili kutathmini iwapo mtumiaji anasikiliza.
Image
Image

Kuongezeka kwa matumizi ya akili bandia (AI) kufuatilia mihemko ya binadamu kunaleta masuala ya faragha.

Mashirika ya kutetea haki za binadamu yanaiomba Zoom kupunguza kasi ya mpango wake wa kuanzisha AI ya kuchanganua hisia katika programu yake ya mikutano ya video. Inasemekana kwamba kampuni ilisema kwamba itatumia AI kutathmini hisia au kiwango cha ushiriki cha mtumiaji.

"Wataalamu wanakubali kwamba uchanganuzi wa hisia haufanyi kazi," muungano wa makundi ya haki za binadamu, ikiwa ni pamoja na ACLU, uliandika katika barua kwa Zoom. "Tabia za uso mara nyingi hutenganishwa na hisia zilizo chini, na utafiti umegundua kwamba hata wanadamu hawawezi kusoma au kupima kwa usahihi hisia za wengine baadhi ya wakati. Kutengeneza zana hii huongeza sifa kwa sayansi ghushi na kuweka sifa yako hatarini."

Zoom haikujibu mara moja ombi la Lifewire la kutoa maoni.

Kuweka Vichupo kwenye Hisia Zako

Kulingana na makala ya Itifaki, mfumo wa ufuatiliaji wa Kuza unaoitwa Q for Sales ungeangalia uwiano wa muda wa maongezi wa watumiaji, uchelewaji wa muda wa kujibu, na mabadiliko ya mara kwa mara ya spika ili kufuatilia jinsi mtu huyo anavyohusika. Zoom ingetumia data hii kugawa alama kati ya sifuri na 100, huku alama za juu zikionyesha ushirikiano au hisia za juu zaidi.

Makundi ya haki za binadamu yanadai kuwa programu inaweza kuwabagua watu wenye ulemavu au makabila fulani kwa kudhani kuwa kila mtu anatumia sura sawa za uso, mifumo ya sauti na lugha ya mwili kuwasiliana. Vikundi pia vinapendekeza programu inaweza kuwa hatari kwa usalama wa data.

Image
Image

"Kuvuna data ya kina ya kibinafsi kunaweza kufanya huluki yoyote inayotumia teknolojia hii kuwa shabaha ya kunyakua mamlaka za serikali na wavamizi hasidi," kulingana na barua hiyo.

Julia Stoyanovich, profesa wa sayansi ya kompyuta na uhandisi katika Chuo Kikuu cha New York, aliiambia Lifewire katika mahojiano ya barua pepe kwamba ana shaka kuhusu madai ya kutambua hisia.

"Sioni jinsi teknolojia kama hii inavyoweza kufanya kazi-maelezo ya hisia za watu ni ya mtu binafsi, yanategemea sana kitamaduni, na yanazingatia muktadha sana," Stoyanovich alisema."Lakini, pengine muhimu zaidi, sioni kwa nini tunataka zana hizi zifanye kazi. Kwa maneno mengine, tungekuwa kwenye shida zaidi ikiwa zingefanya kazi vizuri. Lakini labda hata kabla ya kufikiria juu ya hatari, tunapaswa uliza-ni faida gani zinazoweza kupatikana za teknolojia kama hii?"

Zoom sio kampuni pekee inayotumia programu ya kutambua hisia. Theo Wills, mkurugenzi mkuu wa faragha katika Kuma LLC, kampuni ya ushauri wa faragha na usalama, aliiambia Lifewire kupitia barua pepe kwamba programu ya kugundua hisia hutumiwa wakati wa mahojiano ili kutathmini ikiwa mtumiaji yuko makini. Pia inajaribiwa katika sekta ya uchukuzi ili kufuatilia iwapo madereva wanaonekana kusinzia, kwenye mifumo ya video ili kupima mambo yanayokuvutia na kurekebisha mapendekezo, na katika mafunzo ya kielimu ili kubaini ikiwa mbinu mahususi ya kufundisha inahusisha.

Wills alidai kuwa utata kuhusu programu ya kufuatilia hisia ni suala la maadili ya data kuliko faragha. Alisema ni kuhusu mfumo kufanya maamuzi ya ulimwengu halisi kulingana na hunches.

"Kwa teknolojia hii, sasa unadhani ni kwa nini nina mwonekano fulani kwenye uso wangu, lakini msukumo wa kujieleza hutofautiana sana kutokana na mambo kama vile malezi ya kijamii au kitamaduni, tabia za familia, uzoefu wa zamani au woga. kwa sasa," Wills aliongeza. "Kuweka algoriti kwenye dhana kuna dosari asili na kuna uwezekano wa ubaguzi. Idadi nyingi za watu hazijawakilishwa katika idadi ya watu kanuni hizo zimeegemezwa, na uwakilishi unaofaa unahitaji kupewa kipaumbele kabla hii haijatumika."

Mazingatio ya Kivitendo

Matatizo yanayoletwa na programu ya kufuatilia hisia yanaweza kuwa ya vitendo na pia ya kinadharia. Matt Heisie, mwanzilishi mwenza wa Ferret.ai, programu inayoendeshwa na AI ambayo hutoa akili ya uhusiano, aliiambia Lifewire katika barua pepe kwamba watumiaji wanahitaji kuuliza ni wapi uchambuzi wa nyuso unafanywa na data gani inahifadhiwa. Je, utafiti unafanywa kwenye rekodi za simu, kuchakatwa katika wingu, au kwenye kifaa cha ndani?

Pia, Heisie aliuliza, algoriti inapojifunza, inakusanya data gani kuhusu uso au miondoko ya mtu ambayo inaweza kutenganishwa kutoka kwa algoriti na kutumika kuunda upya bayometriki ya mtu? Je, kampuni inahifadhi vijipicha ili kuthibitisha au kuthibitisha mafunzo ya algoriti, na je, mtumiaji anaarifiwa kuhusu data hii mpya inayotokana na data iliyohifadhiwa ambayo inaweza kukusanywa kutoka kwa simu zao?

"Haya yote ni matatizo ambayo makampuni mengi yametatua, lakini pia kuna makampuni ambayo yamekumbwa na kashfa ilipobainika kuwa hayajafanya hivyo kwa usahihi," Heisie alisema. "Facebook ndiyo kesi muhimu zaidi ya kampuni ambayo ilirejesha nyuma jukwaa lake la utambuzi wa uso kwa sababu ya wasiwasi kuhusu faragha ya mtumiaji. Kampuni mama ya Meta sasa inaondoa vipengele vya Uhalisia Pepe kutoka Instagram katika baadhi ya maeneo kama vile Illinois na Texas kuhusu sheria za faragha zinazohusu data ya kibayometriki."

Ilipendekeza: