Si marrja e një qasjeje të kujdesshme ndaj AI redukton grupet e njëanshme të të dhënave

Grupet e të dhënave të njëanshme dhe UA Etike

Zgjidhjet e fuqizuara nga AI kanë nevojë për grupe të dhënash për të qenë efektive. Dhe krijimi i atyre grupeve të të dhënave është i mbushur me një problem paragjykimi të nënkuptuar në një nivel sistematik. Të gjithë njerëzit vuajnë nga paragjykimet (si të vetëdijshëm ashtu edhe të pavetëdijshëm). Paragjykimet mund të marrin çdo numër formash: gjeografike, gjuhësore, socio-ekonomike, seksiste dhe raciste. Dhe ato paragjykime sistematike janë pjekur në të dhëna, të cilat mund të rezultojnë në produkte të AI që përjetësojnë dhe rrisin paragjykimet. Organizatat kanë nevojë për një qasje të ndërgjegjshme për të zbutur kundër paragjykimeve që zvarriten në grupet e të dhënave.

Shembuj që ilustrojnë problemin e paragjykimit

Një shembull i dukshëm i paragjykimeve të këtij grupi të dhënash që mblodhi shumë shtyp negativ në atë kohë ishte një zgjidhje për leximin e rezymeve që favorizonte kandidatët meshkuj mbi femrat. Kjo është për shkak se grupet e të dhënave të mjetit të rekrutimit ishin zhvilluar duke përdorur rezyme nga dekada e kaluar kur shumica e aplikantëve ishin meshkuj. Të dhënat ishin të njëanshme dhe rezultatet pasqyruan atë paragjykim. 

Një shembull tjetër i raportuar gjerësisht: Në konferencën vjetore të zhvilluesve të Google I/O, Google ndau një pamje paraprake të një mjeti ndihmës dermatologjik të fuqizuar nga AI që i ndihmon njerëzit të kuptojnë se çfarë po ndodh me çështjet që lidhen me lëkurën, flokët dhe thonjtë e tyre. Asistenti i dermatologjisë nënvizon se si AI po evoluon për të ndihmuar në kujdesin shëndetësor - por gjithashtu theksoi potencialin e njëanshmërisë për t'u futur në AI pas kritikave se mjeti nuk është i përshtatshëm për njerëzit me ngjyrë.

Kur Google njoftoi mjetin, kompania vuri në dukje:

Për t'u siguruar që po ndërtojmë për të gjithë, modeli ynë llogarit faktorë si mosha, gjinia, raca dhe llojet e lëkurës - nga lëkura e zbehtë që nuk nxihet deri te lëkura kafe që digjet rrallë.

Google, duke përdorur AI për të ndihmuar në gjetjen e përgjigjeve për kushtet e zakonshme të lëkurës

Por një artikull në Vice tha se Google dështoi të përdorë një grup të dhënash përfshirëse:

Për të përmbushur detyrën, studiuesit përdorën një grup të dhënash trajnimi prej 64,837 imazhesh të 12,399 pacientëve të vendosur në dy shtete. Por nga mijëra sëmundjet e lëkurës të paraqitura në foto, vetëm 3.5 për qind erdhën nga pacientët me tipet e lëkurës Fitzpatrick V dhe VI - ato që përfaqësojnë lëkurën kafe dhe lëkurën kafe të errët ose të zezë, përkatësisht. Sipas studimit, 90 përqind e bazës së të dhënave përbëhej nga njerëz me lëkurë të bardhë, lëkurë të errët të bardhë ose ngjyrë kafe të lehta. Si rezultat i marrjes së mostrave të njëanshme, dermatologët thonë se aplikacioni mund të përfundojë me ose nën-diagnostikim të njerëzve që nuk janë të bardhë.

Vice, Aplikacioni i Ri i Dermatologjisë i Google nuk ishte krijuar për njerëzit me lëkurë të errët

Google u përgjigj duke thënë se do ta përmirësonte mjetin para se ta lëshonte zyrtarisht:

Mjeti ynë ndihmës i dermatologjisë i mundësuar nga AI është kulmi i më shumë se tre vjet kërkimesh. Meqenëse puna jonë u prezantua në Nature Medicine, ne kemi vazhduar të zhvillojmë dhe përsosim teknologjinë tonë me përfshirjen e grupeve të të dhënave shtesë që përfshijnë të dhëna të dhuruara nga mijëra njerëz dhe miliona imazhe të tjera të kuruara të shqetësimeve të lëkurës.

Google, duke përdorur AI për të ndihmuar në gjetjen e përgjigjeve për kushtet e zakonshme të lëkurës

Sado që të shpresojmë që programet e AI dhe të mësuarit të makinerisë mund të korrigjohen për këto paragjykime, realiteti mbetet: ato janë vetëm si i zgjuar pasi grupet e tyre të të dhënave janë të pastra. Në një përditësim të fjalës së vjetër të programimit plehra në / jashtë mbeturinave, zgjidhjet e AI janë po aq të forta sa cilësia e grupeve të tyre të të dhënave që nga fillimi. Pa një korrigjim nga programuesit, këto grupe të dhënash nuk kanë përvojën në sfond për t'u rregulluar - pasi thjesht nuk kanë kornizë tjetër referimi.

Ndërtimi i grupeve të të dhënave me përgjegjësi është në thelbin e të gjithëve inteligjenca artificiale etikeMe Dhe njerëzit janë në thelbin e zgjidhjes. 

Inteligjenca artificiale e ndërgjegjshme është AI Etike

Paragjykimi nuk ndodh në vakum. Të dhënat joetike ose të njëanshme vijnë nga marrja e qasjes së gabuar gjatë fazës së zhvillimit. Mënyra për të luftuar gabimet e paragjykimit është adoptimi i një qasjeje të përgjegjshme, të përqendruar te njeriu, që shumë në industri po e quajnë Mindful AI. AI i ndërgjegjshëm ka tre përbërës kritikë:

1. AI i ndërgjegjshëm është i përqendruar te njeriu

Që nga fillimi i projektit UA, në fazat e planifikimit, nevojat e njerëzve duhet të jenë në qendër të çdo vendimi. Dhe kjo do të thotë të gjithë njerëzit - jo vetëm një nëngrup. Kjo është arsyeja pse zhvilluesit duhet të mbështeten në një ekip të ndryshëm njerëzish me bazë globale për të trajnuar aplikacionet e AI që të jenë gjithëpërfshirëse dhe pa paragjykime.

Mbledhja e grupeve të të dhënave nga një ekip global dhe i larmishëm siguron që paragjykimet të identifikohen dhe filtrohen herët. Ata të etnive të ndryshme, grupmoshat, gjinitë, nivelet e arsimit, prejardhjet socio-ekonomike dhe vendndodhjet mund të dallojnë më lehtë grupet e të dhënave që favorizojnë një grup vlerash mbi një tjetër, duke hequr kështu paragjykimet e padëshiruara.

Hidhini një sy aplikacioneve zanore. Kur aplikoni një qasje të ndërgjegjshme të AI dhe shfrytëzoni fuqinë e një grupi global talentesh, zhvilluesit mund të marrin parasysh elementë gjuhësorë si dialekte dhe thekse të ndryshme në grupet e të dhënave.

Krijimi i një kuadri dizajni me në qendër njeriun që nga fillimi është kritik. Ajo shkon shumë drejt sigurimit që të dhënat e krijuara, të kuruara dhe të etiketuara përmbushin pritshmëritë e përdoruesve fundorë. Por është gjithashtu e rëndësishme t'i mbani njerëzit në lak gjatë gjithë ciklit jetësor të zhvillimit të produktit. 

Njerëzit në lak gjithashtu mund të ndihmojnë makinat të krijojnë një përvojë më të mirë të AI për çdo auditor specifik. Në Pactera EDGE, ekipet tona të projektit të të dhënave të AI, të vendosura globalisht, kuptojnë se si kulturat dhe kontekstet e ndryshme mund të ndikojnë në mbledhjen dhe kurimin e të dhënave të besueshme të trajnimit të AI. Ata kanë mjetet e nevojshme që u nevojiten për të shënuar problemet, për t'i monitoruar dhe për t'i rregulluar ato përpara se një zgjidhje e bazuar në AI të dalë në treg.

Inteligjenca artificiale e njeriut është një "rrjet sigurie" i projektit që kombinon pikat e forta të njerëzve-dhe prejardhjen e tyre të ndryshme me fuqinë e shpejtë llogaritëse të makinave. Ky bashkëpunim njerëzor dhe AI ​​duhet të krijohet që nga fillimi i programeve në mënyrë që të dhënat e njëanshme të mos formojnë një bazë në projekt. 

2. AI i ndërgjegjshëm është përgjegjës

Të jesh përgjegjës është të sigurohesh që sistemet e AI të mos paragjykohen dhe se ato janë të bazuara në etikë. Bëhet fjalë për të qenë të vetëdijshëm se si, pse dhe ku krijohen të dhënat, si sintetizohen nga sistemet e AI dhe si përdoren në marrjen e një vendimi, vendime që mund të kenë implikime etike. Një mënyrë që një biznes ta bëjë këtë është të punojë me komunitetet e nënpërfaqësuara për të qenë më gjithëpërfshirës dhe më pak të njëanshëm. Në fushën e shënimeve të të dhënave, kërkimet e reja po nxjerrin në pah se si një model me shumë detyra me shumë annotues që i trajton etiketat e secilit shënues si nëndetyrë të veçantë mund të ndihmojë në zbutjen e çështjeve potenciale të qenësishme në metodat tipike të së vërtetës bazë, ku mosmarrëveshjet e annotuesve mund të jenë për shkak të nënpërfaqësimeve dhe mund të shpërfillet në grumbullimin e shënimeve për një të vërtetë të vetme bazë. 

3. I besueshëm

Besueshmëria vjen nga një biznes që është transparent dhe i shpjegueshëm në mënyrën sesi trajnohet modeli AI, si funksionon dhe pse ata rekomandojnë rezultatet. Një biznes ka nevojë për ekspertizë me lokalizimin e AI për të bërë të mundur që klientët e tij t'i bëjnë aplikimet e tyre të UA më përfshirëse dhe të personalizuara, duke respektuar nuancat kritike në gjuhën lokale dhe përvojat e përdoruesve që mund të bëjnë ose të prishin besueshmërinë e një zgjidhjeje të UA nga një vend në tjetrin. Me Për shembull, një biznes duhet të hartojë aplikacionet e tij për kontekste të personalizuara dhe të lokalizuara, duke përfshirë gjuhët, dialektet dhe thekset në aplikacionet e bazuara në zë. Në këtë mënyrë, një aplikacion sjell të njëjtin nivel të sofistikimit të përvojës zanore në çdo gjuhë, nga anglishtja në gjuhët e nënpërfaqësuara.

Drejtësia dhe Diversiteti

Në fund të fundit, AI i ndërgjegjshëm siguron që zgjidhjet të ndërtohen mbi grupe të drejta dhe të larmishme të dhënash, ku pasojat dhe ndikimi i rezultateve të veçanta monitorohen dhe vlerësohen përpara se zgjidhja të dalë në treg. Duke qenë të ndërgjegjshëm dhe duke përfshirë njerëzit në çdo pjesë të zhvillimit të zgjidhjes, ne ndihmojmë që modelet e AI të qëndrojnë të pastra, minimalisht të njëanshme dhe sa më etike të jetë e mundur.

Çfarë mendoni ju?

Kjo faqe përdor Akismet për të reduktuar spamin. Mësoni se si përpunohet komenti juaj.