Jacek Zadrożny
Sztuczna inteligencja (AI) to technologia, która znacząco może poprawić jakość życia osób z różnymi rodzajami niepełnosprawności. Widzę ją jako technologię asystującą „na sterydach”. W tym artykule chcę podzielić się z Wami pomysłami na to, jak jest już wykorzystywana i co może być dalej. Opowiem Wam, jak AI może pomóc w różnych obszarach niepełnosprawności: wzroku, słuchu, mowy, ruchu, intelektualnej, poznawczej oraz związanej z wiekiem.
Sztuczna inteligencja budzi wiele obaw wśród ludzi, co wynika najczęściej z braku wiedzy na jej temat. Istotne są także skojarzenia popkulturowe, kiedy to sztuczna inteligencja okazywała się groźnym i bezdusznym antagonistą ludzkości. Wystarczy wspomnieć o filmach „Gry wojenne”, „Terminator”, „Matrix” lub książkach „Poklatkowa rewolucja” czy „Golem XIV”. Warto jednak pamiętać, że są to wytwory wyobraźni artystów, a nie opis rzeczywistości. Sztuczna inteligencja jest naszym narzędziem i to od nas zależy, jak go użyjemy.
Czytając Konwencję o prawach osób z niepełnosprawnościami, odnajdziemy tam zasady ogólne w art. 3. Wymienione są tam prawo do poszanowania swobody wyboru i niezależności osoby niepełnosprawnej. Te zasady mogą się wydawać oczywiste, o ile nie pojawią się bariery. Wtedy uwidacznia się potrzeba ich usunięcia lub przynajmniej pokonania. Rozwiązaniem często może być technologia, która pozwala na wykonywanie czynności samodzielnie, bez konieczności angażowania innych osób. Ktoś opowiedział mi historię niewidomej kobiety, która zrobiła test ciążowy, ale nie miała kogo zapytać o wynik. Skorzystała z aplikacji Be My Eyes i pokazała test zupełnie obcej osobie, a do tego mężczyźnie. Dzięki AI ma teraz wybór, czy pokazać taki test człowiekowi, czy sztucznej inteligencji.
W Konwencji mamy też zobowiązanie do popierania badań i rozwijania technologii asystujących, które mogą wspierać osoby z niepełnosprawnościami. I to się dzieje także w Polsce, przede wszystkim za sprawą środków unijnych. Pojawiają się całe programy wspierające przedsiębiorców w zwiększaniu dostępności produktów i usług. Są inkubatory, wspierające doradczo i finansowo mniejsze projekty realizowane przez pojedyncze osoby, grupy nieformalne i małe organizacje. Są wreszcie projekty badawcze, jak awatar tłumacza języka migowego, który powstał na Śląsku. Wreszcie – Ministerstwo Cyfryzacji uruchamia właśnie projekt wykorzystujący sztuczną inteligencję w dostępności cyfrowej. Potencjał jest duży, a środki finansowe także obfite, można więc mieć nadzieję, że zobaczymy wkrótce ogromny postęp.
Czy AI może pomóc widzieć?
Otóż nie tylko może, ale od dawna to robi. Jako przykład może służyć technologia optycznego rozpoznawania znaków (OCR). Pozwala na przetworzenie obrazów tekstu, na przykład papierowych książek, na tekst nadający się do odczytania. OCR to technologia znana od kilkudziesięciu lat i wymyślona przede wszystkim dla banków i urzędów skarbowych. Jednak wraz z upowszechnieniem się komputerów trafiła także do osób niewidomych i dała im możliwość dostępu do literatury na ogromną skalę.
Oprogramowanie do rozpoznawania i analizowania obrazu rozwijało się dość powoli. Jednak wraz z rewolucją sztucznej inteligencji nabrała rozpędu. W tym momencie istnieją już rozwiązania dedykowane osobom niewidomym, spełniające rolę widzącego asystenta. Przykładem może być aplikacja Be My AI, która stała się rozwinięciem Be My Eyes. Początkowo aplikacja mobilna służyła do łączenia się z wolontariuszami pomagającymi osobom niewidomym za pośrednictwem połączenia wideo. Od kiedy jednak do pracy zaprzęgnięto sztuczną inteligencję, wszystko stało się wygodniejsze i pozwalało na zachowanie większej prywatności. Wystarczy zrobić zdjęcie i po kilku sekundach osoba niewidoma wie, co się na nim znajduje.
Jeszcze dalej przesunęła granice aplikacja Seeing AI, w której już wcześniej można było skorzystać z różnych narzędzi dla osób niewidomych, jak rozpoznawanie pieniędzy, tekstu, osób i przestrzeni. Od kilku miesięcy można w niej otrzymać audiodeskrypcję do filmu zapisanego w smartfonie. Operacja trwa dość długo, ale efekt jest naprawdę dobry.
Czy AI może pomóc słyszeć?
W wielu sytuacjach – tak. W wielu aplikacjach konferencyjnych, na przykład Zoom i Teams, można włączyć transkrypcję mowy na żywo. Osoba z ograniczeniami słyszenia może zatem śledzić tok spotkania i uczestniczyć w nim na bieżąco. A jeżeli jednak tempo jest za szybkie, może skorzystać z transkrypcji całego spotkania.
Generowanie tekstu z mowy działa już na tyle sprawnie, że można dodawać do filmów napisy w sposób niemal automatyczny. Takie napisy należy oczywiście przejrzeć i poprawić, bo zawsze pojawiają się jakieś błędy. Jednak nie trzeba ich już mozolnie przepisywać ze słuchu i ustawiać znaczników czasowych. Osoby niesłyszące mogą zrobić taką transkrypcję lub napisy na własną rękę, chociaż wtedy napisy nie będą tak dobre, bo bez korekty.
Pojawiło się także sporo rozwiązań rozpoznających dźwięki, które nie są mową. W systemach firmy Apple jest to funkcja wbudowana i pozwala na rozpoznanie szczekania psa, płaczu dziecka, dzwonka do drzwi i podobnych dźwięków. Osoba niesłysząca może dostać powiadomienie na telefon, że w sąsiednim pokoju płacze dziecko lub kurier dzwoni do drzwi.
Wciąż na etapie rozwoju jest rozpoznawanie i generowanie tłumaczeń na język migowy. Wydaje się jednak, że już niedługo nastąpi przełom i osoby posługujące się głównie językiem migowym dostaną narzędzia dostępu do wiedzy, jak wcześniej dostały je osoby niewidome. W Polsce realizowane są przynajmniej dwa takie projekty, to znaczy generowanie awatara porozumiewającego się w języku migowym. Na świecie jest tych projektów o wiele więcej.
Czy AI może pomóc w poruszaniu się?
Wydawać się może, że sztuczna inteligencja nie znajdzie zbyt wielu zastosowań w przestrzeni fizycznej. Wystarczy jednak pomyśleć, jak bardzo ułatwiają życie urządzenia sterowane głosem. Za ich pomocą można zapalać i gasić oświetlenie, uruchamiać odkurzacz samobieżny, zmywarkę czy pralkę. Takich udogodnień w domu jest coraz więcej, a wkrótce mogą pojawić się zupełnie nowe.
Taką rewolucją mogą się stać roboty – i już są takie prototypy. Powstają zresztą przede wszystkim z myślą o seniorach, ale mogą się świetnie sprawdzić także w przypadku osób z niepełnosprawnością ruchu. Mogą przestawiać i przenosić przedmioty, pomagać we wstawaniu, przemieszczaniu się i w innych czynnościach.
Czy AI może pomóc zrozumieć?
Oczywiście, i robi to bez przerwy. Bardzo wiele osób korzysta z tłumaczeń między językami, które są przecież realizowane przez sztuczną inteligencję. Jednak przetwarzanie języka naturalnego (NLP) daje o wiele większe możliwości. Tekst można streścić, uprościć, dodać wyjaśnienia, ustrukturyzować. Można to zrobić, aby treść była bardziej zrozumiała dla odbiorcy. Do tego nie trzeba nawet specjalnych narzędzi, bo wystarczy niemal dowolny chatbot, jak Chat GPT, Gemini czy polski Bielik. Można tam wkleić tekst i poprosić o wyjaśnienie lub uproszczenie. Modele językowe radzą sobie z tym doskonale.
Czasem barierą jest nawet sam tekst, a nie treść. Są przecież osoby, które mają problemy z czytaniem lub wręcz nie potrafią czytać. Tu ogromną pomocą jest synteza mowy, dostępna w niemal każdym systemie operacyjnym na komputery i telefony. Zamiast czytać wzrokiem, można tekst odsłuchać głosem bardzo zbliżonym do ludzkiego. Takie funkcje mają też niektóre przeglądarki internetowe. W Microsoft Edge wystarczy nacisnąć skrót Ctrl+Shift+U. Inną przydatną funkcją jest tryb „bez rozpraszania”, który w tej samej przeglądarce wywołuje się klawiszem F9. Usuwa z ekranu zbędne elementy, pozostawiając samą treść. Tekst można dodatkowo dopasować do swoich potrzeb przez zmianę czcionki, wielkości, kolorystyki, szerokości kolumny. Co więcej – tak oczyszczona treść jest łatwiejsza w odbiorze podczas odczytywania sztuczną mową.
A co na przyszłość?
Postęp rozwoju AI jest tak szybki, że trudno przewidywać jej przyszłość. W maju 2024 roku zorganizowałem po raz pierwszy wydarzenie poświęcone sztucznej inteligencji w dostępności. Dałem jej nazwę AutomaticA11y, co jest połączeniem numeronimu A11y – oznaczającego dostępność – i angielskiego słowa automatic. Od tamtej pory zmieniło się ogromnie dużo (o czym zresztą porozmawiamy w maju 2025 roku, gdy odbędzie się druga edycja konferencji, na którą już dziś serdecznie zapraszam – szczegóły na stronie automatically.pl). Dlatego najlepiej skupić się na funkcjach, jakie może zaoferować osobom z różnymi niepełnosprawnościami. Część z tych technologii trzeba udoskonalać, w tym łącząc je z innymi. Inne, jak tłumaczenie na język migowy, jest tuż za rogiem. Podobnie jest z robotycznymi psami przewodnikami, które już się pojawiły, na razie w fazie prototypów. Wydaje mi się jednak, że najważniejsza będzie adaptowalność takich technologii.
Ludzie z niepełnosprawnościami bardzo się między sobą różnią, nawet jeżeli łączy je analogiczna niepełnosprawność. Posłużę się tu przykładem osób z niepełnosprawnością intelektualną, z których każda ma nieco inne potrzeby i możliwości. Dla jednych z nich wystarczy przekształcenie tekstu na prostszą formę. Inne nie potrafią czytać, ale są w stanie zrozumieć mowę, więc dla nich rozwiązaniem będzie sztuczna mowa. Jeszcze inne mogą potrzebować kontaktu z człowiekiem lub przynajmniej namiastką. Dla nich rozwiązaniem może być sympatyczny awatar. Czasem zaś można wykorzystać wszystkie te technologie, które będą automatycznie dopasowywać się do osoby z niepełnosprawnością, ucząc się od niej odpowiedniego formułowania wypowiedzi, kładzenia akcentów lub mimiki.
Innym przykładem mogą być osoby z ograniczeniami w mówieniu. Ogólnie dostępne systemy rozpoznawania mowy nie sprawdzają się w przypadku części osób, na przykład z porażeniem mięśni twarzy lub głuchych. Można jednak zaprojektować aplikację, która nauczy się sposobu mówienia takiej osoby, a do otoczenia trafi zrozumiały głos i do tego dokładnie tej osoby.
Możliwości AI we wspieraniu osób z niepełnosprawnościami wydają się nieograniczone.
Jacek Zadrożny – ekspert do spraw dostępności cyfrowej. Od 1998 roku zajmuje się tematyką dostępu do informacji i urządzeń dla osób z niepełnosprawnościami. W swojej karierze pracował m.in. w Ministerstwie Cyfryzacji, Fundacji Wspierania Zrównoważonego Rozwoju, Kancelarii Prezesa Rady Ministrów i Polskim Związku Głuchych. Był m.in. członkiem Rady Dostępności, Komitetu Monitorującego Program Operacyjny Polska Cyfrowa i Komisji Ekspertów Rzecznika Praw Obywatelskich. Jest autorem wielu artykułów i prezentacji na temat dostępności. Wydaje newsletter „Dostępnik” i jest gospodarzem podcastu „Salonik u Jacka”. Jego celem jest promowanie dostępności jako normy i standardu jakości w nowoczesnym społeczeństwie.
Artykuł powstał w ramach partnerskiego projektu „Działania informujące i promujące Fundusze Europejskie wśród organizacji pozarządowych”, realizowanego przez Podlaski Sejmik Osób z Niepełnosprawnościami ze środków Unii Europejskiej w ramach Pomocy Technicznej dla Funduszy Europejskich na lata 2021-2027.
![[logotypy: Fundusze Europejskie, Rzeczpospolita Polska, Unia Europejska]](https://podlaskisejmikon.pl/wp-content/uploads/2024/12/PTFE_RP_UE_RGB-1-1024x140.png)
Autor zdjęcia: fot. cottonbro studio/Pexels.com