Czy rozwój AI powinien iść w parze ze zrozumieniem jej w wpływu na ludzi, ich codzienne decyzje i potrzeby? Wierzymy, że tak, dlatego angażujemy się w badania nad sztuczną inteligencją, które pozwalają spojrzeć na technologię z perspektywy użytkownika, nie tylko jako innowacyjnego narzędzia, ale jako realnego elementu życia zawodowego i społecznego.
Współpracujemy z uczelniami, instytucjami i partnerami technologicznymi, prowadząc projekty badawcze, które łączą analizę danych z empatycznym projektowaniem doświadczeń. W centrum naszego podejścia znajdują się pytania o zrozumiałość, użyteczność, zaufanie i etykę rozwiązań opartych na AI.
Badania nad sztuczną inteligencją mogą i powinny być prowadzone z udziałem ludzi, dla których ta technologia powstaje. Poznaj kulisy naszych projektów, w których uczestniczyliśmy jako partner badawczy.
Chatbot AI zasilany RODO i orzeczeniami patentowymi
W jednym z projektów badawczych, realizowanym we współpracy z konsorcjum Akademii Górniczo-Hutniczej i Uniwersytetu w Luxemburgu, mieliśmy okazję zbadać prototyp chatbota AI wspierającego użytkowników w interpretacji przepisów RODO oraz orzeczeń patentowych. Celem tego rozwiązania było udostępnienie specjalistycznej wiedzy prawnej w przystępnej formie osobom, które nie mają w pracy kontaktu z prawnikiem.
Naszym zadaniem było zbadanie, jak użytkownicy odbierają sposób komunikacji chatbota z odbiorcami oraz na ile odpowiedzi generowane przez AI są dla nich zrozumiałe, wiarygodne i pomocne. W tym celu zaprojektowaliśmy i przeprowadziliśmy zdalne testy użyteczności i indywidualne wywiady z przedsiębiorcami, wynalazcami i specjalistami w firmach.
Wśród uczestników znalazł się m.in. fizjoterapeuta planujący opatentować innowacyjne rozwiązanie dla swojego gabinetu. Dzięki chatbotowi mógł samodzielnie uzyskać wstępne informacje na temat procedur patentowych i ochrony własności intelektualnej, co zwykle wymaga czasochłonnych konsultacji prawnych.
To pokazuje potencjał takich narzędzi w kontekście mikroprzedsiębiorców i specjalistów działających samodzielnie.
Skuteczność rozwiązań AI zależy nie tylko od jakości algorytmu, ale przede wszystkim od sposobu, w jaki technologia wchodzi w interakcję z człowiekiem.
Asystent AI w gabinecie lekarskim
Codzienna praca lekarza wymaga nie tylko wiedzy medycznej, ale również sprawnej komunikacji, szybkiego podejmowania decyzji i równoczesnego dokumentowania przebiegu wizyty. Dlatego badaniach dla partnerstwa uczelni technicznej i firmy z sektora medycznego skupiliśmy się na tym, jak technologia oparta na AI może wspierać te procesy, bez zaburzania naturalnego rytmu pracy lekarza.
Punkt wyjścia stanowiła koncepcja głosowego asystenta AI, który w sposób nienachalny rejestruje przebieg wizyty i automatycznie tworzy notatki, odciążając lekarza z części obowiązków administracyjnych. Już na etapie planowania zadaliśmy sobie fundamentalne pytanie: co można zdigitalizować, nie ingerując w sposób pracy lekarza?
Kluczowe było wyznaczenie granicy: system miał wspierać, ale nie sugerować diagnoz czy terapii.
Następnie w ramach projektu przeszliśmy do fazy badań – przeprowadziliśmy indywidualne wywiady z lekarzami oraz ankiety ilościowe, które pozwoliły nam ocenić wpływ realnego rozwiązania AI na przebieg wizyty i relację lekarz-pacjent. Naszym celem było uchwycenie zarówno funkcjonalnych aspektów narzędzia, jak i oczekiwań specjalistów, którzy mieli z nim pracować. Badania koncentrowały się przede wszystkim na odpowiedzi na pytania:
- czy i w jaki sposób opracowywane rozwiązanie głosowego zapisu dokumentacji medycznej może wpłynąć na przebieg wizyty (porady) lekarskiej,
- jakie mogą być potencjalne scenariusze użycia asystenta głosowego wspierającego lekarzy w wypełnianiu dokumentacji,
- jak lekarze oceniają przydatność i użyteczność opracowywanego rozwiązania,
- jakie są szanse i wyzwania we wdrożeniu rozwiązania,
- czy istnieją jakieś bariery techniczne (w tym kompetencji cyfrowych lekarzy) wpływające na skuteczność korzystania z rozwiązania.
Z perspektywy lekarzy kluczowe okazały się dwie kwestie: przejrzystość działania AI i jego „niewidzialność” w trakcie wizyty. Wielu respondentów podkreślało, że technologia może być pomocna, o ile nie ingeruje w rytm rozmowy, nie dominuje spotkania i nie narzuca nienaturalnego toku działania.
W trakcie projektu stanęliśmy również przed pytaniami wykraczającymi poza samą funkcjonalność narzędzia:
- czy wdrażając AI, naprawdę odpowiadamy na potrzeby użytkowników, czy raczej zakładamy, że wiemy lepiej, czego potrzebują?
- czy sama dostępność technologii powinna być impulsem do jej implementacji? Czy raczej powinniśmy zastanowić się, czy jej obecność – zamiast ułatwić pracę – nie zakłóci naturalnych procesów?
To pytania o etykę, odpowiedzialność i projektowanie przyszłości w sposób uważny. W naszych badaniach staramy się nie tylko testować interfejsy i funkcje, ale także rozpoznawać czy w danym kontekście AI ma sens i kto ponosi odpowiedzialność za skutki jej działania. Szczególnie w ochronie zdrowia kluczowe staje się podejście hybrydowe: łączenie możliwości technologicznych z realnym, empatycznym rozpoznaniem potrzeb użytkownika.
W kontekście systemów działających w tle, szczególnie istotne staje się pytanie o odpowiedzialność projektanta i developera, bo im mniej widoczne jest działanie narzędzia, tym większa odpowiedzialność spoczywa na tych, którzy je tworzą i wdrażają.
Użytkownik może nie dostrzegać mechanizmów stojących za generowaną odpowiedzią, dlatego to my musimy zapewnić, że są one zgodne z jego potrzebami, a nie tylko z możliwościami technologii.
AI w organizacji: chatbot z wiedzą wewnętrzną dla pracowników
W projekcie realizowanym z firmą Philip Morris International mieliśmy okazję przyjrzeć się wdrażaniu chatbota AI wspierającego zarządzanie wiedzą w środowisku korporacyjnym. Celem rozwiązania było umożliwienie pracownikom szybkiego uzyskiwania odpowiedzi na pytania związane z procedurami, narzędziami i wewnętrznymi procesami, np. „co zrobić, gdy zmieniam dział?” czy „jak przenieść się do innej lokalizacji?”.
Naszym zadaniem było sprawdzenie, jak pracownicy reagują na taki typ narzędzia, czy uważają je za przydatne, zrozumiałe i warte zaufania, oraz jakie są ich obawy i oczekiwania względem tego rodzaju wsparcia.
Projekt miał charakter eksploracyjny i został oparty na testach eksperymentalnych z elementami metody scenariuszowej. Uczestnicy byli proszeni o wczucie się w konkretne sytuacje, z którymi mogą się spotkać w swoim środowisku pracy (np. zmiana działu, przeniesienie lokalizacji), a następnie zadawali chatbotowi pytania, które chcą zadać w takiej sytuacji. Obserwowaliśmy nie tylko ich reakcje na treść odpowiedzi, ale też sposób formułowania pytań, wątpliwości oraz poziom zaufania do udzielanych informacji.
Jednym z najciekawszych aspektów projektu była analiza warunków, w których AI może rzeczywiście ułatwiać pracę, a kiedy staje się niepotrzebnym ogniwem. W toku badań zaobserwowaliśmy, że narzędzie dobrze sprawdza się w odpowiedziach na pytania proceduralne i standardowe, ale przy bardziej złożonych sytuacjach pojawiało się oczekiwanie większego dopasowania do kontekstu i niuansów. To nie tyle kwestia technologii, co zrozumienia, w jakim obszarze faktycznie warto ją stosować.
Z perspektywy badawczej zadajemy sobie również pytania o sam sens wdrażania AI w tego typu przypadkach. Czy technologia jest odpowiedzią na rzeczywistą potrzebę użytkownika? Czy mając dostęp do technologii, powinniśmy ją wdrażać zawsze, czy tylko wtedy, gdy niesie realną wartość i nie zaciera odpowiedzialności?
Testując AI w organizacjach, warto badać nie tylko jakość odpowiedzi dostarczanych przez technologię, ale też kontekst ich odbioru: kto pyta, w jakiej sytuacji, z jakimi emocjami i oczekiwaniami. Bo w środowisku pracy zaufanie do informacji, nawet generowanej przez maszynę, wciąż zależy od tego, czy użytkownik wie, kto za nią stoi.
Ludzie przede wszystkim
Choć każdy z opisanych projektów dotyczył innych tematów i środowisk, wszystkie łączyło jedno: punktem odniesienia był człowiek, nie technologia. W EDISONDA, pracując z AI, nie skupiamy się wyłącznie na wydajności, skuteczności czy innowacyjności. Patrzymy głębiej. Pytamy, czy rozwiązanie jest zrozumiałe, użyteczne, potrzebne i odpowiedzialne.
Badania nad sztuczną inteligencją w naszym ujęciu to nie tylko analiza danych i testowanie algorytmów. To przede wszystkim słuchanie ludzi, dla których te narzędzia powstają. Wierzymy, że tylko w ten sposób można tworzyć technologię, która nie tylko działa, ale też budzi zaufanie, wspiera w codziennych zadaniach i nie narusza granic relacji, zaufania czy autonomii. To, co łączy nasze podejście we wszystkich projektach, to uważność. Uważność na kontekst, na użytkownika, na konsekwencje. To daje nam podstawy, by nie tylko ulepszać rozwiązania, ale też rekomendować sposób ich wdrażania – skuteczny, bo dobrze przyjęty przez użytkowników i odpowiadający na ich, czasem nieuświadomione, problemy i potrzeby.