
Nowe możliwości technologii wspierających wzrok
Sztuczna inteligencja znacząco poprawia jakość życia osób niewidomych i słabowidzących dzięki narzędziom, które czytają tekst, rozpoznają obiekty oraz prowadzą głosowo przez codzienne sytuacje. Technologie te wykorzystują zaawansowane rozwiązania jak computer vision, przetwarzanie języka naturalnego i interakcję głosową, przekształcając smartfony, okulary czy laski w osobistych asystentów wzroku.
Mobilne aplikacje z funkcją przewodnika
Wśród popularnych rozwiązań znajdują się Seeing AI od Microsoftu oraz Lookout od Google, które umożliwiają użytkownikom skanowanie otoczenia i odczytywanie informacji z otoczenia w czasie rzeczywistym. Seeing AI oferuje funkcje rozpoznawania twarzy, scen i emocji, natomiast Lookout działa szybko nawet offline, oferując lokalne rozpoznawanie tekstów i obiektów. Aplikacja Be My Eyes zyskała nowy wymiar dzięki integracji z GPT-4 Vision, pozwalając AI na precyzyjne opisywanie zdjęć bez udziału człowieka.
Urządzenia zintegrowane z AI
OrCam MyEye i Envision Glasses to przykłady technologii ubieralnych, które oferują użytkownikom możliwość rozpoznawania tekstu, twarzy i przedmiotów w codziennym otoczeniu. Envision Glasses, zbudowane na bazie Google Glass, dodatkowo umożliwiają interakcję z dużym modelem językowym, co pozwala zadawać pytania i uzyskiwać kontekstowe odpowiedzi. Wysoki koszt tych rozwiązań nadal jednak ogranicza ich powszechność.
Telefony i asystenci głosowi
Wbudowane funkcje w smartfonach, takie jak VoiceOver w iPhone’ach czy rozwiązania w telefonach Pixel, pomagają osobom niewidomym w codziennym korzystaniu z urządzeń mobilnych. Wspierają one poruszanie się po interfejsie, czytanie wiadomości oraz obsługę aplikacji, czyniąc nowoczesne technologie bardziej dostępnymi.
Inteligentna nawigacja i wykrywanie przeszkód
WeWALK Smart Cane 2, Biped oraz BlindSquare oferują nowy poziom autonomii w przemieszczaniu się. Laska WeWALK wyposażona w AI i czujniki ultradźwiękowe potrafi kierować użytkownika oraz wskazywać interesujące miejsca w pobliżu. Biped wykorzystuje kamery 3D do analizy przestrzeni, a BlindSquare służy jako nawigacja GPS dedykowana niewidomym.
Wady obecnych technologii
Pomimo postępów, technologie AI nie są wolne od ograniczeń. Zdarzają się błędy w rozpoznawaniu obiektów, etykiet leków czy elementów scenerii. Problemy z precyzją, niskim stopniem integracji oraz złożonością interfejsów zniechęcają niektórych użytkowników. Starsze osoby często mają trudności z obsługą skomplikowanych urządzeń lub nie wiedzą o ich istnieniu.
Braki w funkcjonalności i kompatybilności
Brak zintegrowanych rozwiązań skutkuje koniecznością korzystania z wielu oddzielnych aplikacji do różnych zadań. Ponadto, AI nie zawsze współgra z już posiadanymi przez użytkownika strategiami orientacyjnymi. Nieintuicyjność i trudność w nauce obsługi również są barierami, które ograniczają efektywność tych systemów w codziennym życiu.
Prywatność i kwestie społeczne
Noszenie urządzeń z kamerami budzi obawy o prywatność i może prowadzić do dyskomfortu społecznego. Wysyłanie danych do chmury wiąże się z ryzykiem naruszenia bezpieczeństwa informacji. Dodatkowo, nie każdy użytkownik chce rezygnować z kontaktu z drugim człowiekiem na rzecz bezosobowej pomocy AI.
Nowe funkcje multimodalnych modeli
Technologie takie jak GPT-4o i Grok integrują obraz, dźwięk i język, oferując opis otoczenia w czasie rzeczywistym i możliwość prowadzenia konwersacji kontekstowej. Envision implementuje te rozwiązania w swoich okularach, a nowe wersje asystentów głosowych rozwijają zdolność rozumienia bardziej złożonych sytuacji i intencji użytkownika.
Rozwój technologii ubieralnych
Systemy jak Biped, AI Guided czy Sunu Band wprowadzają nowe podejścia do przestrzennego rozpoznawania otoczenia. Trwają także testy nad robotycznymi przewodnikami, które mogą stanowić alternatywę dla tradycyjnych psów-przewodników. Haptics rozwija się, oferując nowe sposoby nawigacji oparte na wibracjach i sygnałach dotykowych.
Nawigacja w przestrzeniach wewnętrznych
Rozwiązania AI zaczynają radzić sobie z nawigacją w pomieszczeniach dzięki tworzeniu trójwymiarowych modeli otoczenia. Projekty takie jak „World Seeing AI” czy Umwelt dążą do oznaczania miejsc i obiektów w czasie rzeczywistym. Systemy uczące się kontekstu mogą w przyszłości tworzyć inteligentnych towarzyszy codzienności.