Prostřednictvím přenosu rysů sociální třídy do AI se zlepší jazykové služby, čímž dojde k sociální nerovnosti (zvětšené nebo zmenšené v závislosti na tom, kdo práci vykonává). Toto pochopení vyvolává naléhavou otázku, kterou položil Lawrence Weru, biomedicínský informatik na Harvard Medical School: Pokud se náhodou cílové oblasti našeho výzkumu zaměřují na formy diskriminace, jsou zapojeny různé skupiny a my zase, přijmout takové algoritmy, které jsou zaujaté do procesu rozhodování, jak to gen N zvážit a vyřešit?

Potřeba rozmanitosti ve vývoji AI

Jsou otázky samy o sobě matoucí, pokud bychom měli obrátit pozornost na konkurenční průzkum a aplikaci umělé inteligence ze strany vyhledávačů? Zásadní význam tedy je, že řidič autobusu je všímavý. Vyskytuje se ve většině případů tak, že si problém všimnete a lidé si dostatečně získají pozornost pouze v určitých množstvích, které zůstávají nevyřešeny. Je mimo chápání, že dostupnost je zásadní a co zahrnuje. Navíc poskytuje AI tak pozitivní účel, že lidé žijí v míru. Pracujeme na tom s dalšími technologickými společnostmi a přidali bychom část této váhy zde na straně telekomunikací.

Příkladem může být AI Seeing, bezplatná aplikace pro iPhone od společnosti Microsoft, která vypráví prostředí, čte dokumenty a provádí další základní úkoly i přes zhoršení zraku. Aplikace slouží jako pomůcka pro ústní čtení tím, že má funkci převodu textu na řeč; lze se tak vyhnout nepřístupnému psanému textu ve zvukovém formátu. Voiceitt je další inovativní pomůcka, která umožňuje neschopnost mluvit lidem, kteří nejsou schopni nic říct tak dlouho, aby mohli mluvit. Univerzita prostřednictvím spolupráce s Voiceitt Communication App a Webex Technology pomáhá zejména profesionálním a obtížným zaměstnancům plynule mluvit. Kromě toho je jejich výstup během představení, obvykle v ústní komunikaci, přeložen a opatřen titulky, aby bylo setkání přístupné i pro neslyšící.

Další uváděnou výhodou umělé inteligence je to, že návrhář vývoje může vytvářet algoritmy pro rozhraní, které reagují nezávisle a dynamicky na potřeby každého uživatele v závislosti například na jeho vizuálních, zvukových nebo motorických funkcích. Navzdory mnoha objevům a řešením se postiženým jedincům stále nedaří získat služby, které potřebují, aby byli úspěšní.

Podpora dostupnosti prostřednictvím inkluzivní umělé inteligence

V důsledku toho se pozornost přesouvá k potřebě řídit pozitivní změny v pracovní síle a zaměřuje se na úroveň C-suite společností zapojených do vývoje AI. AI Equity Lab zdůraznila, že „Identita každého je při formulování systému umělé inteligence klíčová, což znamená, že by neměl být navržen tak, aby byli černoši a další menšiny zastaralé. Umělá inteligence může být navržena tak, aby vytvořila prostředí, kde lze důkladně prodiskutovat předchozí události a prozkoumat ekonomickou realitu dotčené skupiny (včetně menšin nebo nedostatečně zastoupené skupiny).

Taková věta v podstatě vyjadřuje sílu, kterou tým návrhářů umělé inteligence drží ve svých rukou, o tom, jak bude technologie využívána a za jakým účelem. Toho lze dosáhnout tím, že zajistíme, aby všichni členové týmu pocházeli z různého původu, zejména jednotlivci z menšin, a aby se k účasti vybrali ti z dříve znevýhodněných skupin. Taková odpovědnost vyžaduje, abychom podstatně zvýšili šance na úspěšný návrh umělé inteligence, která má smysl pro složitosti a je vyvážená v tom, jak zachází se zkušenostmi mezi menšinovými skupinami světa.

Značně dobré výsledky by přineslo řešení problému zkreslení v systémech AI ve fázi vývoje, kdy je snadné je opravit, na rozdíl od pozdějších, kdy by způsobily nevyčíslitelné škody. Je proto důležité, aby vývojáři AI byli skupinou lidí různého původu a AI by měla být neustále kontrolována s širokým rozsahem použití; v důsledku toho by systémy umělé inteligence měly být neustále aktivně sledovány. Za těchto podmínek by předsudky měly spotřebitele jakékoli technologie poučit, aby neudělili zákaz takovým zařízením.

Abychom to shrnuli, jádrem globálního týmu pro dohled nad autonomií AI je, že prioritami jsou dostupnost, začlenění a aplikace. Diskriminace nebo neobjektivní technologie jsou problémem, který ukazuje skutečnou minulost systémů umělé inteligence, které jsou odhaleny, když vidíme, že systémy jsou zaměňovány za ženy s muži, starší lidi s mladými lidmi nebo bělochy s Afroameričany. Role, kterou hraje technická komunita při vývoji umělé inteligence, by měla vzít v úvahu názory a zkušenosti nedostatečně zastoupených skupin, které představují hlas uživatelů u stolů pouhých vedoucích pracovníků a procesu návrhu; výsledkem by nakonec byla velmi potřebná spolupráce s lidmi, jejichž aplikace AI by byly pro společnost významným přínosem.