Kształtowanie jutra: Jak dzisiejsze metody trenowania sztucznej inteligencji zdefiniują naszą przyszłość

Sztuczna inteligencja rozwija się szybko i zachwyca swoimi możliwościami, ale nie możemy zapominać, że dzisiaj jest niczym kilkulatek, który bezgranicznie wierzy i ufa swoim rodzicom. W tym przypadku jest ona podatna na wpływ osób zajmujących się jej trenowaniem. To w dużej mierze właśnie od nich zależy, jaka przyszłość nas czeka.

Opublikowany na początku roku raport „Edelman Trust Barometer 2024” pokazuje, że obecnie bardziej wierzymy wynikom z wyszukiwarek internetowych niż dziennikarzom opisującym otaczającą rzeczywistość w tradycyjnych mediach. Wkrótce jednak takim zaufanym źródłem informacji, które zapewnia jeszcze szybszy dostęp do odpowiedzi, mogą stać się chatboty bazujące na sztucznej inteligencji.

Czy będziemy mogli im zaufać? To zależy od tego, jak będzie przebiegać ich rozwój i czy odpowiednio zadbamy o dane, na podstawie których algorytmy są trenowane. Wiele wskazuje na to, że znajdujemy się na kluczowym etapie rozwoju, kiedy GenAI, podobnie jak umysł dziecka, chłonie i przetwarza ogromne ilości informacji. Uczy się o otaczającej rzeczywistości i przygotowuje do funkcjonowania w przyszłości, a wszystko to pod okiem specjalistów dbających o dostarczanie jej treści. W kontekście tego dynamicznego rozwoju niezwykle ważne jest zadbanie o różnorodność danych używanych do szkolenia sztucznej inteligencji, by uniknąć poważnych konsekwencji w przyszłości.

GenAI, podobnie jak każdy inny system uczący się, jest tak dobry, jak dane, które otrzymuje. Jeżeli są jednostronne, błędne lub pełne uprzedzeń, model AI będzie powielał te informacje. Konsekwencje tego, z pozoru niegroźne na pierwszy rzut oka, możemy dostrzegać już teraz. Algorytmy dopuszczone do korzystania z zasobów sieci www, sugerują użytkownikom działania lub rozwiązania zaproponowane wcześniej przez internautów dla żartu lub by oszukać swoich rozmówców. To prowadzi do tak absurdalnych sytuacji, jak radzenie kobietom w ciąży palenia dwóch-trzech papierosów dziennie bądź zalecanie uzupełnienia codziennej diety o kamienie.

W przyszłości skutki mogą być dużo poważniejsze i odczuwane powszechnie, przez całe społeczeństwo. Jeżeli system AI jest trenowany głównie na danych pochodzących od jednej grupy demograficznej, istnieje ryzyko, że będzie dyskryminował inne. Przykłady takich uprzedzeń możemy obecnie zaobserwować w systemach rekrutacyjnych lub tych służących do rozpoznawania twarzy, które lepiej radzą sobie w przypadku osób o jaśniejszej karnacji.

Brak różnorodności w danych może prowadzić do wzmocnienia istniejących nierówności społecznych i ekonomicznych. Jeżeli systemy AI zaczną preferować jedną grupę nad inną, wówczas może to przyczynić się do jeszcze większego rozwarstwienia społecznego. Niesprawiedliwe decyzje dotyczące spraw o istotnym znaczeniu, jak przyznawanie kredytów, diagnozowanie chorób czy zatrudnienie, mogą być krzywdzące dla pewnych grup ludzi i skutkować konsekwencjami prawnymi i społecznymi.

Szybki rozwój sztucznej inteligencji stoi przed poważnym wyzwaniem ze względu na kluczową rolę danych treningowych. Zapewnienie różnorodności danych ma istotne znaczenie dla budowania zaufania wśród społeczeństwa do sztucznej inteligencji. Użytkownicy muszą mieć pewność, że systemy z których korzystają, są uczciwe, aktualne oraz neutralne. Kiedy sztuczna inteligencja jest postrzegana jako nieobiektywna lub wprowadzająca w błąd, podważa to zaufanie do technologii, co może skutkować oporem przed wdrażaniem i wykorzystywaniem systemów AI – wyjaśnia Ewelina Wacławik-Macura, Project Manager - Engineering w GlobalLogic, która na nadchodzącej konferencji „Women in Tech Summit”, wraz z Katarzyną Paluch, Senior Manager - Engineering, przybliży temat znaczenia różnorodności w trenowaniu SI podczas prezentacji „Is GenAI a Woman?”.

Różnorodność w danych szkoleniowych dla GenAI jest obecnie nie tylko kwestią etyki, ale także praktyczną koniecznością dla zapewnienia efektywności, sprawiedliwości i wszechstronności. Sztuczna inteligencja jest coraz bardziej wszechobecna w naszym życiu, a zbieranie danych z różnych źródeł i od wielu grup demograficznych, a także regularne monitorowanie i audytowanie systemów AI pod kątem uprzedzeń i stronniczości, jest kluczowe dla uniknięcia poważnych konsekwencji w przyszłości. Tylko w ten sposób możemy budować świat, w którym technologia służy wszystkim, a nie jest tylko kolejnym środkiem do manipulacji i fake newsów.


Źródło: businessinsider.pl

  • URL copied!