Az etika beépítése az AI-be - II. Rész

Kutatáson alapuló ajánlások az emberiség megtartására az AI-ben

iStock by Getty Images Kredit: AndreyPopov

Ez egy két részből álló sorozat második része, amely arról szól, hogyan építsük az etikát az AI-be. Az I. rész az etikai kultúra ápolására irányult a vállalatában és a csapatában, valamint arra, hogy átlátható legyen a vállalaton belül és kívül is. Ebben a cikkben az adatok és algoritmusok kizárásának eltávolítására szolgáló mechanizmusokra összpontosítunk. Az összes beavatkozás vagy fellépés közül az itt elért előrelépések mutatják a legnagyobb változási sebességet. Az adatok és algoritmusok torzulásainak azonosítására és kezelésére új megközelítések jelennek meg, amelyek azt jelentik, hogy az ügyfeleknek lépést kell tartaniuk a feltörekvő technológiával.

Távolítsa el a kizárást

Az elfogultság sokféleképpen léphet be az AI rendszerbe. A javítás érdekében először is fel kell ismerni őket.

Ismerje meg a bevont tényezőket

Azonosítsa az algoritmus (ok) ban szembetűnő és változtatható tényezőket.

A digitális hitelnyújtási alkalmazások rengeteg alternatív adatot vesznek fel az egyik mobil eszközről, például a napi helymeghatározási mintákat, a közösségi média tevékenységeit, a szöveges üzenetek írásjeleit vagy azt, hogy hány névjegyüknél vannak vezetéknevek a hitelek jóváhagyásához vagy elutasításához, vagy a magasabb kamat kiszámításához. Például a dohányosok és a késő esti internetes felhasználók rosszul fizetnek vissza kölcsönöket. Ezeket az adatokat általában a felhasználó tudatossága nélkül gyűjtik, mivel az engedély a szolgáltatási feltételekbe van eltemetve.

A mérnököket és a végfelhasználókat is kényelmetlenül érzi a „fekete doboz”. Meg akarják érteni az ajánlások megfogalmazásában szereplő információkat. Szinte lehetetlen azonban pontosan megmagyarázni, hogy az AI hogyan tett javaslatot. A fenti hitelezési példában fontos megjegyezni, hogy a korreláció nem egyenlő az okozati összefüggéssel, és kritikusan gondolkodni azon kapcsolatokról, amelyek a jelentős döntések meghozatalakor létrejönnek, például a lakáshitel jóváhagyásakor.

Milyen tényezők befolyásolják manipulációjuk eredményeként az AI ajánlásának eredményét? A felhasznált tényezők megértésével és be- és kikapcsolásával az alkotók és a felhasználók láthatják, hogy az egyes tényezők hogyan befolyásolják az AI-t, és amelyek elfogult döntéseket eredményeznek.

Ez a Christoph Molnar útmutatása a fekete doboz modellek magyarázata érdekében az egyik kísérlet a mélyebb ásásra. Egy másik módszert a Google kutatói mutattak be 2015-ben. Fordították egy mély tanuláson alapuló képfelismerő algoritmust, így ahelyett, hogy fényképeken tárgyakat festenek fel, azokat generálják vagy módosítják, hogy felfedezzék azokat a funkciókat, amelyeket a program használ a súlyzó felismerésére. vagy más tárgy.

A Microsoft befogadó tervező csapata tervezési eszközöket és iránymutatásokat dolgozott fel az AI-ben való kizárás felismerésére. Az ebben a szakaszban szereplő többi javaslatot az ezen ötféle torzításról szóló közepes bejegyzésük ihlette.

Az adatkészlet torzításának megakadályozása

Határozza meg, ki vagy mi van kizárva vagy túlreprezentálva az adatkészletben, miért kizárták, és hogyan enyhítheti azt.

Végezzen Google-keresést a „3 fehér tizenévesek”, majd a „3 fekete tizenévesek” kategóriában, és többnyire stock fotók jelennek meg a fehér tizenévesek számára, és többnyire bögrék a fekete tizenévesek számára. Ennek oka a fekete tinédzserek stock-fotóinak hiánya az adatkészletben, de könnyű belátni, hogy egy AI-rendszer elfogult következtetéseket von le egy fekete és fehér tini letartóztatásának valószínűségére vonatkozóan, ha csak erre az adatkészletre képzik.

Az adatkészlet torzítása egy csoport túl- vagy alulreprezentáltságát eredményezi. Például az adatkészlete erősen súlyozott lehet a legfejlettebb felhasználók felé, azaz a felhasználói populáció többi részének ábrázolásakor. Ennek eredményeként létre lehet hozni egy olyan terméket vagy szolgáltatást, amelyet az energiafelhasználók szeretnek, miközben soha nem adják a többi felhasználó számára lehetőséget arra, hogy növekedjen és boldoguljon. Szóval hogyan néz ki ez és hogyan javíthatja ki?

  • Mi: Az adatkészlet nagy részét egy felhasználói csoport képviseli.
    Hogyan: Használjon olyan módszereket, mint a költségérzékeny tanulás, a mintavételi módszerek változásai és az anomáliák észlelése a gépi tanulás kiegyensúlyozatlan osztályaival való foglalkozáshoz.
  • Mi: A többségre vonatkozó statisztikai minták érvénytelenek lehetnek egy kisebbségi csoporton belül.
    Hogyan: Hozzon létre különböző algoritmusokat a különböző csoportokhoz, mintsem egy-egy méretre.
  • Mi: A kategóriák vagy címkék egyszerűsítik az adatpontokat, és téves lehet az adatok bizonyos százalékában.
    Hogyan: értékelje az útvonal-specifikus kontrafaktuális tisztességet. Ez egy olyan döntéshozatali forma, amelynél a gépekkel szemben valamely ítélet méltányosnak minősül, ha ugyanazt az ítéletet hozta volna, ha ez a személy egy másik demográfiai csoportba került volna tisztességtelen utak mentén (pl. Ha nő nő lenne férfi, vagy egy fehér ember fekete volt) - magyarázta Parmy Olson.
  • Mi: azonosítsa ki, ki kerül kirekesztésbe, és milyen hatással van a felhasználóira, valamint az alsó sorában. A kontextus és a kultúra számít, de lehet, hogy lehetetlen „látni” az adatokban.
    Hogyan: azonosítsa az ismeretlen ismeretlen dolgokat, ahogyan azt a Stanford és a Microsoft Research kutatói javasolták.

Az egyesületi torzítás megakadályozása

Határozza meg, hogy az edzési adatok vagy címkék képviselik-e a sztereotípiákat (pl. Nem, etnikai), és módosítsa azokat a nagyítás elkerülése érdekében.

A képalkotó AI rendszerek képzéséhez használt fényképes adatkészletben a kutatók azt találták, hogy az adatkészletben több nő volt, mint férfiakban a főzéshez, vásárláshoz és mosáshoz kapcsolódó képekben, míg a vezetést, lövöldözést és edzést tartalmazó képekben több férfi volt, mint nőknél.

Az asszociációs torzítás az, amikor a modell kiképzéséhez használt adatok megtartják és nagyítják a sztereotípiát, amely nem korlátozódik a képekre. Például a nemek szempontjából semleges nyelveken, például a török ​​nyelven, a Google Translate megmutatja a nemek közötti elfogultságot azáltal, hogy párba veszi az „ő” szavakat, mint például „szorgalmas”, „orvos” és „elnök”, valamint „ő” olyan szavakkal, mint a „lusta”, „nővér, ”És„ dada ”. Hasonló elfogultságot találtak a Google Hírek keresésében is.

Sajnos, ezeket az elfogult adatkészleteket használó gépi tanulási alkalmazások tovább erősítik ezeket az torzításokat. A fotó példában az adatkészletben 33% -kal több nő volt, mint férfiakban a főzéssel kapcsolatos fényképekben, de az algoritmus ezt az elfogultságot 68% -ra erősítette meg! Ez a diszkriminatív modellek alkalmazásának eredménye (ellentétben a generációs modellekkel), amelyek növelik az algoritmusok pontosságát az adatok általánosításának (torzításának) erősítésével. Laura Douglas szépen elmagyarázza ezt a folyamatot, ha többet szeretne megtudni.

A torzítás erősítésének eredménye azt jelenti, hogy az adatkészletek egyszerűen a jelenlegi állapotba hagyása, mert az „valóságot” reprezentálja (például az USA-ban az ápolónők 91% -a nő) nem a megfelelő megközelítés, mivel az AI torzítja a már egyensúlytalanságot. Ez megnehezíti az emberek számára, hogy felismerjék, hogy ma sok férfi ápoló található a munkaerőpiacon, és hajlamosabbak magasabb fizetést keresni, mint például a nők.

A kutatók megtalálták a tisztességtelen torzítások javításának módját, miközben megőrzik a pontosságot, csökkentve a nemek közötti eltérések erősítését corpus-szintű korlátozások és a szóbeágyazás zavarainak segítségével. Ha az AI-rendszer idővel megtanulja, rendszeresen ellenőriznie kell a rendszer eredményeit, hogy megbizonyosodjon arról, hogy az elfogultság nem került újra be az adatkészletbe. A torzítás kezelése nem egyszeri javítás; folyamatos éberséget igényel.

Az torzítás erősítésének eredménye azt jelenti, hogy az adatkészletek egyszerűen a jelenlegi állapotba hagyása, mert az „valóságot” reprezentálja… nem a megfelelő megközelítés, mivel az AI torzítja a már egyensúlytalanságot.

A megerősítési torzítás megakadályozása

Határozza meg, hogy a rendszer torzulása önmagát teljesítő próféciát eredményez-e, és megakadályozza-e a választás szabadságát.

A Compas AI rendszer, amelyet egyes bírósági rendszerek használnak az elítélt bűncselekmény újbóli elkövetésének kockázatának előrejelzésére, rendszerszintű alapot mutattak a színű emberekkel szemben, és ennek eredményeként elutasították a hosszabb távú börtönbüntetést.

A megerősítő torzítás megerősíti az előítéleteket egy csoport vagy egyén vonatkozásában. Ennek eredményeként visszhangkamrát eredményez, ha olyan információkat vagy lehetőségeket mutat be, amelyek hasonlóak az egyén által korábban általuk választott vagy számukra. A fenti példában a ProPublica cikke bebizonyította, hogy a Compas AI által használt algoritmus valószínűleg tévesen sorolja a fekete vádlottakat nagyfokú visszaesés kockázatának közé, és nagyobb valószínűséggel tévesen kategorizálja a fehér vádlottakat alacsony kockázatúnak. Egy másik tanulmány kimutatta, hogy az Amazon Mechanical Turk képzetlen dolgozói, akik mindössze hat tényezőt alkalmaztak a visszaesés előrejelzésére, ugyanolyan pontosak voltak, mint a Compas 157 tényezőt használva (67%, illetve 65% pontossággal).

Még akkor is, ha a verseny nem volt az egyik alkalmazott tényező, valószínűleg mindkét fél pontatlanul jósolta meg, hogy a fekete vádlottak újból megsértik, a fehér vádlottak pedig nem. Ennek oka az, hogy bizonyos adatpontok (például a börtönben eltöltött idő) a verseny szempontjából olyan proxist jelentenek, amely kiszabadult visszacsatolási hurkokat hoz létre, amelyek aránytalanul befolyásolják a már társadalmilag hátrányos helyzetűket.

A Compas rendszer csak egy példa, de a népesség egy része hasonló elfogultsággal szembesül sok itt tárgyalt rendszer közül, ideértve a prediktív rendőrséget, az alkalmazások hitelezését, a járművezetési szolgáltatásokat és az AI asszisztenseket. Csak el lehet képzelni, milyen nehéz lenne szembenézni az elfogultsággal és a kirekesztéssel minden fronton. Mint más típusú torzításoknál is, meg kell próbálnia az eredményeket, hogy láthassa az torzítást, azonosítsa a torzítási tényezőket, majd távolítsa el azokat a kiszabadult visszacsatolási körök eltörése érdekében.

Az automatizálási torzítás megakadályozása

Határozza meg, mikor az értékek felülírják a felhasználói értékeket, és adja meg a felhasználók módját annak visszavonására.

Az AI szépségverseny várhatóan elfogulatlan lenne a szépségértékelés során, ám szinte az összes nyertes fehér volt.

Az automatizálási torzítás a többség értékeit a kisebbségre kényszeríti, ami károsítja a sokféleséget és a választás szabadságát. Az AI rendszer alkotóinak értékeit ezután elkövetik. A fenti példában egy AI szépségverseny elsősorban a fehér arcokat jelölte meg, mint a legszebb az edzési adatok alapján. Az európai szépségstandardok megsemmisítik a nem európaiak fotóinak minőségét, így a sötét bőrű emberek képei alulexponáltak, és az AI rendszerek nehezen tudják felismerni őket. Ennek következtében sértő címkék (például a Google Fotók „gorilla esemény”) és értesítések (például „intelligens” kamerák kérdezik az ázsiaiak számára, hogy pislognak-e). Sőt, ami még rosszabb, a rendőrség arcfelismerő rendszerei aránytalanul érintik az afroamerikaiakat.

A torzítás kezelésének megkezdéséhez meg kell kezdeni az értékalapú torzítások eredményeinek vizsgálatát (például, a képzési adatoknak nincs sokfélesége az összes felhasználó vagy a szélesebb populáció ábrázolására, a szubjektív címkék képviselik az alkotó értékét).

A hitelnyújtási alkalmazások korábbi példájában, amelyben dönt arról, hogy valaki dohányzik-e vagy sem, azt a kérdést kell feltenni, hogy ez képviseli-e az alkotók vagy a lakosság többségének értékeit (például a dohányzás rossz, tehát a dohányosok rossz). Térjen vissza a szociális rendszerek elemzéséhez, hogy visszajelzést kapjon a felhasználóitól annak megállapítása érdekében, hogy értékeiket vagy kulturális megfontolásait felülírják-e. A felhasználók ugyanazokat az értékeléseket vagy ajánlásokat készítik-e, mint az AI? Ha nem, módosítsa az edzési adatokat, a címkéket és az algoritmusokat az értékek sokféleségének ábrázolására.

Az interakció torzításának enyhítése

Ismerje meg, hogy a rendszer hogyan tanulja meg a valós idejű interakciókat, és végezzen ellenőrzéseket a rosszindulatú szándék enyhítése érdekében.

Az Inspirobot AI-t használ, és az internetről kaparja a „inspiráló” idézeteket, ám az eredmények mulatságosan furcsa és kegyetlen és nihilistikusak.

Az interakciós elfogultság akkor fordul elő, amikor az emberek interakcióba lépnek vagy szándékosan befolyásolják az AI rendszereket, és elfogult eredményeket hoznak létre. Az Inspirobot alkotója szerint a bot idézetek tükrözik azt, amit az interneten talál, és a bot nihilistás tendenciáinak mérséklésére tett kísérletei csak rontották őket.

Lehet, hogy nem tudja elkerülni az embereket, hogy szándékosan károsítsák az AI-rendszert, de mindig el kell végeznie egy „pre-mortem-et” annak megállapítása érdekében, hogy az AI-rendszert hogyan lehet visszaélni és kárt okozni. Miután azonosította a visszaélés lehetőségét, ellenőrzéseket kell végrehajtania, hogy a lehető legnagyobb mértékben megakadályozzák, és javítsák meg, amikor nem tudják. Rendszeresen ellenőrizze azokat az adatokat, amelyeket a rendszer használ az elfogult adatpontok megismerésére és eltávolítására.

Lehet, hogy nem tudja elkerülni az embereket, hogy szándékosan károsítsák az AI-rendszert, de mindig el kell végeznie egy „pre-mortem-et” annak megállapítása érdekében, hogy az AI-rendszert hogyan lehet visszaélni és kárt okozni.

Hová menj innen

Az AI elfogultsága a szélesebb társadalomban tapasztalható elfogultság tükröződése. Az etika beépítése az AI-ba rögzíti egy sokkal nagyobb probléma tüneteit. Társadalomként el kell döntenünk, hogy értékelik az egyenlőséget és a méltányosságot mindenki számára, majd ezt a valós életben is meg kell valósítani, nem csak az AI rendszerünkben. Az AI-nek lehetősége lenni Nagy Demokratizátornak vagy növelni a társadalmi igazságtalanságot, és rajtad múlik, hogy eldönti, hogy a spektrum melyik oldalán szeretné használni a termékét.

Köszönöm Justin Tauber, Liz Balsam, Molly Mahar, Ayori Selassie és Raymon Sutedjo-The minden visszajelzését!

Kövessen minket a @SalesforceUX webhelyen.

Szeretne velünk dolgozni? Vegye fel a kapcsolatot az uxcareers@salesforce.com címen