Generatywne AI – sztuczna inteligencja w HR
2023.05.24
W listopadzie ubiegłego roku świat obiegły wieści o nowej odsłonie sztucznej inteligencji, nad którą prace trwały od ponad 10 lat. Mowa o Chat GPT, który określany jest mianem generatywnego AI.
Nie jest to oczywiście jedyny przykład z tej dziedziny, jednak zdecydowanie zyskał on największy rozgłos. Niewątpliwie potencjał takiego narzędzia jest ogromny, ale czy nie generuje on równe wielkich, jeśli nie większych, ryzyk?
Opracowanie na podstawie treści Ius Laboris: Monika Banaś
Rozmowy z botem
Chat GPT świetnie sprawdza się jako asystent pracy. Wystarczy zadać mu pytanie, a ten nie dość, że odpowie na nie niezwykle szybko, to szukając odpowiedzi przeskanuje dostępne mu bazy danych.
Narzędzie to, zapytane w jaki sposób może pomóc pracodawcom w zarządzaniu zespołem udzieliło imponującej odpowiedzi. Chat GPT w esencji powiedział, że może zająć się wszystkimi najważniejszymi zadaniami z zakresu HR, w tym rejestrowanie czasu pracy, zarządzanie zadaniami i projektami czy koordynowanie spotkań.
Co istotne, Chat GPT wskazał w jaki sposób może tego dokonać, wymienić w szczególności należy przeprowadzanie oceny pracy pracowników, udzielanie informacji zwrotnych pracownikom odnośnie jakości ich pracy, czy pomoc w wyznaczaniu jasnych i przejrzystych celów zarówno dla poszczególnych pracowników jak i dla całego zespołu.
Jednak wzmianka końcowa w odpowiedzi Chatu wydaje się być kluczowa – dla zapewnienia pełnej zgodności z lokalnym prawem, także w celu zapewnienia ochrony prywatności pracodawcy, narzędzie zaleca, by nad generowanymi przez niego materiałami nadzór sprawował człowiek.
To właśnie ten aspekt ludzkiego nadzoru może okazać się kluczowy, zwłaszcza mając na uwadze fakt, iż nie mamy do czynienia ze wszystkimi możliwościami generatywnego AI. Niewątpliwie tego typu narzędzia przyczynią się do zmiany w sposobie w jakim praca, także ta w obrębie HR, jest wykonywana. Pewnym jest, że wykształcenie umiejętności skutecznego wykorzystywania sztucznej inteligencji jest na wagę złota.
Wady?
Rozwój zawsze ma swoją cenę. Pytając Chat GPT o ryzyka i wady wykorzystywania go w pracy, narzędzie wskazało w odpowiedzi klika kluczowych elementów jak:
- nieznajomość kontekstu w jakim wykonywana jest praca oraz wszelkich niuansów jakie z tego wynikają,
- udzielanie nieadekwatnych lub błędnych odpowiedzi,
- stronniczość lub uprzedzenie,
- dostęp do informacjo stanowiących tajemnicę przedsiębiorstwa lub dane osobowe,
- brak transparentności.
Kwestie takie jak błędne odpowiedzi albo stronniczość wynikają bezpośrednio z faktu, iż model „trenowany” jest na zbiorach danych, które mogą ze swej natury są ograniczone, mogą też wykazywać przejawy dyskryminacji. Sam Chat GPT nie posiada danych o stanie świata po 2021 roku.
Błędne odpowiedzi generatywnego AI określa się jako tzw. urojenie modelu i jak dotąd stanowi największy z problemów z jakimi zmagają się deweloperzy i użytkownicy. Chat GPT w żaden sposób nie określa stopnia adekwatności swojej odpowiedzi. Brak też transparentności w zakresie tego, w jaki sposób generowane są odpowiedzi. Z kolei informacje umieszczone przez użytkownika w systemie mogą stanowić narzędzie treningowe dla modelu, co z resztą w jasny sposób wskazane zostało w Regulaminie użytkowania. Niektórych z wymienionych problemów można uniknąć decydując się na subskrypcję narzędzia, które pozwala na tzw. fine tuning, a więc swoiste dostrajanie go do naszych potrzeb.
Z kolei odpowiedzią na wszystkie z przytoczonych ryzyk i wad mogłaby być sztuczna inteligencja o charakterze wyjaśniającym, a więc taka, która przedstawiałaby w jasny sposób założenia na podstawie których udziela odpowiedzi, jednak jest ona dopiero we wczesnych fazach rozwoju.
Od lat badania pokazują, że sztuczna inteligencja może utrwalać dyskryminację, jednak w przypadku generatywnej sztucznej inteligencji ten problem wydaje się być stosunkowo łatwy do rozwiązania przy zastosowaniu nadzoru człowieka, choć nie należy wykluczyć przypadków, kiedy problem ten będzie ukryty, pozornie nieistniejący, stąd niezwykle trudny do wykrycia.
Podobny ton wybrzmiał podczas ostatniego Forum Ekonomicznego w Davos, gdzie podkreślono wagę i istotność nadzoru ludzkiego nad tego typu narzędziami. Postawiono nawet tezę, że w obecnym stanie rzeczy niezagwarantowanie rzeczonego nadzoru jest wręcz niebezpieczne.
Przywiązanie do wartości
Technologia w dalszym stopniu rozwija się w szalonym tempie, dlatego warto zastanowić się przed jej wdrożeniem, czy koresponduje ona z wartościami jakie reprezentujemy i z jakimi chcemy być kojarzeni.
Chat GPT zapytany o to, czy może kreować ryzyko dla wartości organizacyjnych określił, iż jako model językowy może być wykorzystany niezgodnie z założeniami, co może rodzić tego typu ryzyko. Warto podkreślić, że istotne jest by firmy w jasny sposób określiły polityki dopuszczalności korzystania z generatywnej sztucznej inteligencji, zapewniając jednocześnie by była ona używana zgodnie z zasadami etycznymi jaki przyświecają organizacji, co pozwoli uniknąć opisywanego problemu.
Szczególnie ważnym jest, by w takich politykach zawrzeć odpowiednie zakazy przekazywania do narzędzia informacji objętych tajemnicą przedsiębiorstwa czy zawierające dane osobowe.
Co przyniesie przyszłość?
Generatywna sztuczna inteligencja może być z sukcesem wykorzystywania do zwiększenia wydajności i produktywności zespołu. Jej istotność zauważa też unijny ustawodawca, który zmierza do regulowania sztucznej inteligencji by ta była bezpieczna dla odbiorców. Proponowany AI Act zawiera także rozwiązania w zakresie tzw. systemów sztucznej inteligencji wysokiego ryzyka, za które uważa się także systemy wykorzystywane do podejmowania decyzji w zatrudnieniu, które oprócz konieczności spełnienia szczególnych warunków przed ich dystrybucją na terenie EU, będą musiały być nadzorowane przez człowieka.