$ 39.35 € 42.72 zł 10.01
+21° Kijów +22° Warszawa +18° Waszyngton
Jak działa sztuczna inteligencja i dlaczego generuje podróbki: wywiad z Oleksiyem Molchanovskym, szefem Komitetu Rozwoju Sztucznej Inteligencji w Ukrainie

Jak działa sztuczna inteligencja i dlaczego generuje podróbki: wywiad z Oleksiyem Molchanovskym, szefem Komitetu Rozwoju Sztucznej Inteligencji w Ukrainie

26 lipca 2023 16:19

Czym jest sztuczna inteligencja, jak działają modele generatywne sztucznej inteligencji, dlaczego systemy te wymyślają nieistniejące fakty i jak zapobiegać takim halucynacjom, a także co pomoże w walce z deepfake`ami tworzonymi przez sztuczną inteligencję, powiedział w wywiadzie dla UA.NEWS Oleksiy Molchanovskyy, kierownik programu studiów magisterskich w zakresie nauki o danych, prodziekan Wydziału Nauk Stosowanych Ukraińskiego Uniwersytetu Katolickiego, szef eksperckiego komitetu doradczego ds. rozwoju sztucznej inteligencji na Ukrainie przy Ministerstwie Transformacji Cyfrowej. 

Jesteśmy świadkami nowej fali zainteresowania sztuczną inteligencją, wraz z rozprzestrzenianiem się tak zwanych generatywnych modeli sztucznej inteligencji. Technologie te próbują zapożyczyć procesy zachodzące w naszych mózgach. Trzeba jednak być tutaj bardzo ostrożnym, ponieważ jest to tylko pewne przybliżenie i to dość odległe. Ich głównym celem i podstawową zasadą działania jest identyfikacja i odtwarzanie pewnych wzorców w danych. Dlatego też, aby te technologie działały, bardzo ważne jest posiadanie wysokiej jakości danych, na których można trenować te modele

Oleksiy Molchanovskyy

kierownik programu studiów magisterskich w zakresie nauki o danych, prodziekan Wydziału Nauk Stosowanych Ukraińskiego Uniwersytetu Katolickiego, szef Komitetu ds. rozwoju sztucznej inteligencji w Ukrainie


Czy mógłby Pan powiedzieć nam, czym jest sztuczna inteligencja w prostych słowach i jakie modele sztucznej inteligencji istnieją obecnie?

Oleksiy Molchanovskyy: Technologie te są dość stare, zaczęły pojawiać się już w 1956 roku, więc rozwijały się na różne sposoby. Obecnie jesteśmy świadkami nowej fali zainteresowania sztuczną inteligencją, która wzrosła gdzieś po 2010 roku. Zwłaszcza w ostatnim roku, kiedy tak zwana generatywna sztuczna inteligencja lub generatywne modele AI stały się powszechne. ChatGPT jest tego najlepszym przykładem dla tekstu. Istnieją również modele generujące obrazy, dźwięk, wideo itp.

Jak działają te podejścia, które opierają się na technologii lub metodach matematycznych zwanych głębokim uczeniem się?

Technologie te próbują zapożyczyć procesy zachodzące w naszych mózgach. Trzeba jednak być tutaj bardzo ostrożnym, ponieważ jest to tylko pewne przybliżenie i to dość odległe. Niemniej jednak mają one w sobie również sztuczne neurony, które są ze sobą połączone. Ich głównym celem i podstawową zasadą działania jest identyfikacja i odtwarzanie pewnych wzorców w danych.

Dlatego też, aby te technologie działały, bardzo ważne jest posiadanie wysokiej jakości danych, na których trenujemy te modele. Co sprawiło, że ChatGPT i model GPT są tak potężne? Fakt, że model ten został wytrenowany na ogromnych ilościach tekstu. Kiedy mówimy o usługach generowania obrazów, były one zasilane danymi obrazu z pewnym tekstem wokół nich w celu szkolenia, co oznacza, że model miał zarówno obrazy, jak i teksty. A teraz można generować obrazy z tekstu.

Analogicznie, jeśli chcesz mieć model, który diagnozuje choroby i raka na podstawie zdjęć rentgenowskich, potrzebujesz odpowiednich danych. Są to poprzednie zdjęcia rentgenowskie, które zostały oznaczone przez ekspertów, ludzi, którzy rozumieją dane i mogą wskazać, gdzie jest coś, czym model może być zainteresowany, a gdzie nie.

Co robią te modele? Próbują odtworzyć pewne wzorce i wykryć je.

Czym różnią się od baz danych, które są zupełnie innym obszarem IT? W bazach danych mamy to, co mamy, czyli zapisane pewne dane. Ale dzisiejsze modele AI pozwalają nam podsumować te dane i odtworzyć je, pracować z danymi, których jeszcze nie widziały. Dlatego mówimy o modelach generatywnych, które mogą generować nowe dane w oparciu o pewne doświadczenia historyczne.

Prowadzi to do bardzo ważnej konsekwencji. Jeśli w danych znajdują się pewne spostrzeżenia, które chcesz zidentyfikować, model może się ich nauczyć. A jeśli dane ich nie zawierają, model nigdy ich nie odkryje. Jeśli dane zawierają pewne uprzedzenia, dane dyskryminujące, model może zacząć je odtwarzać, chyba że podejmiesz pewne świadome kroki, aby się przed tym uchronić.



Jaka jest techniczna różnica między chatbotami AI a generatorami obrazów i muzyki? Co odróżnia je od strony technicznej?

Oleksiy Molchanovskyy: Przede wszystkim są to dane, a następnie architektura tych modeli głębokiego uczenia, na których są one trenowane. Istnieją różne podejścia i mechanizmy, które się sprawdziły.

W latach 2010-2012 nastąpił przełom w obrazach. Oznacza to, że systemy sztucznej inteligencji zaczęły dobrze radzić sobie z obrazami, rozpoznając, czy zdjęcia przedstawiają koty, psy czy ludzi. Tekst nadrobił zaległości później. Teraz widzimy bardzo wyraźnie, jak dobrze te systemy radzą sobie z tekstem i stają się coraz lepsze także z obrazami.

Jeśli chodzi o różnice, to przede wszystkim dotyczą one danych wykorzystywanych przez model do szkolenia. Jeśli mówimy o generowaniu obrazów z tekstu, powinny istnieć zarówno dane tekstowe, jak i wizualne. A jeśli mówimy o chatbocie, powinien on zawierać tylko dane tekstowe.

Ale chatboty kryją w sobie również bardzo szeroki zakres podejść.

Może to być prosty chatbot oparty na regułach. I jeśli widzi frazę kluczową, to daje nam właściwą odpowiedź. Większość chatbotów biznesowych, takich jak chatboty bankowe (odpowiedzialne za wsparcie techniczne lub zastępujące call center), jest bardzo prymitywna na poziomie reguł.

Znacznie ciekawiej wyglądają natomiast chatboty oparte na sztucznej inteligencji generatywnej. Jest tu jednak pewna kwestia: takie chatboty muszą zostać przeszkolone na wyspecjalizowanych danych, aby odpowiedzieć na określone pytania. Jeśli weźmiemy pod uwagę sektor bankowy, nie wystarczy użyć ChatGPT. W końcu bank jest zainteresowany chatbotem, który udziela odpowiedzi na temat jego własnych konkretnych usług, produktów i narzędzi. W związku z tym taka sztuczna inteligencja musi zostać przeszkolona w zakresie danych i bazy wiedzy tego banku.

Innym przykładem jest system, który udziela porad prawnych na ukraińskim korpusie tekstów prawnych. Musimy albo wytrenować ten ChatGPT, ten model GPT, od zera, albo wytrenować go, aby miał ten korpus informacji prawnych - prawa, zarządzenia, uchwały i tak dalej.

Oznacza to, że istnieją zewnętrzne dane publiczne i wewnętrzne dane korporacyjne. W związku z tym firma nie może po prostu wziąć i korzystać z gotowego produktu po wyjęciu "z pudełka" - nadal wymaga on dopracowania. A to często nie jest prosty proces. W związku z tym pojawia się pytanie, czy potrzebujesz kogoś, kto zrobi to za сiebie - może to być osoba w twojej firmie lub możesz zatrudnić zewnętrznych specjalistów.

Wszystkie modele AI próbują zidentyfikować pewne wzorce w danych. Nie możemy powiedzieć, że sztuczna inteligencja coś «rozumie». Po prostu posiada informacje o najczęstszych wzorcach

Oleksiy Molchanovskyy

kierownik programu studiów magisterskich w zakresie nauki o danych, prodziekan Wydziału Nauk Stosowanych Ukraińskiego Uniwersytetu Katolickiego, szef Komitetu ds. rozwoju sztucznej inteligencji w Ukrainie


Dlaczego sztuczna inteligencja wymyśla nieistniejące fakty? Jak powstają halucynacje sztucznej inteligencji?

Oleksiy Molchanovskyy:  To ważne pytanie w kontekście zrozumienia ograniczeń tej technologii.

Skąd biorą się halucynacje sztucznej inteligencji? Musimy jasno zrozumieć, że wszystkie modele sztucznej inteligencji próbują zidentyfikować pewne wzorce w danych. Jeśli weźmiemy tekst, model patrzy na tekst (mogą to być setki miliardów stron), model widzi na przykład 10 lub 100 słów i próbuje odgadnąć, jakie będzie następne słowo. Nawet gdy komunikujesz się z ChatGPT, nie daje ci on całego tekstu, ale pisze go słowo po słowie, więc tak to naprawdę działa.

Nie możemy powiedzieć, że sztuczna inteligencja coś «rozumie». Po prostu ma informacje o najczęstszych wzorcach, jakie słowo następuje po tym słowie i jakie słowo następuje po tym słowie. Kiedy korzystasz ze smartfona, pisząc wiadomość, jesteś również podpowiadany, jakie może być następne słowo - to ta sama technologia, tylko uproszczona, nie tak potężna jak ChatGPT.

Ta sztuczna inteligencja nie rozumie świata. Dlaczego AI generuje obrazy ludzi z 6-7 palcami lub krzywymi stawami? Ponieważ w obrazach sztuczna inteligencja działa na poziomie pikseli i wie, że takie piksele częściej się ze sobą spotykają. Ludzie interpretują to jako rękę lub głowę. Ale sztuczna inteligencja nie wie nic o rękach czy głowach. Ma po prostu wzorzec pewnych pikseli.

W związku z tym sztuczna inteligencja może wygenerować dla ciebie wszystko. O ile oczywiście deweloperzy nie nałożyli na technologię pewnych ograniczeń. Poprosisz sztuczną inteligencję o znalezienie studiów przypadku, jak w przypadku amerykańskiego prawnika, a ona wymyśli dla ciebie podobne wzorce i sekwencje słów, ponieważ widziała je wcześniej. Ponieważ sztuczna inteligencja nie ma żadnego związku z prawdziwym światem. W naszej branży nazywamy to modelem świata.



Czym jest model świata i jak ta koncepcja odnosi się do sztucznej inteligencji?

Oleksiy Molchanovskyy:  Każdy z nas ma model świata wewnątrz, w naszej wyobraźni, w naszym mózgu. Zaczynamy tworzyć te modele świata jeszcze przed narodzinami, słysząc pewne dźwięki itp. Kiedy dorastamy, kiedy jesteśmy mali, aktywnie tworzymy ten model świata. Fizycznie chodzimy, obserwujemy, jak poruszają się przedmioty. Intuicyjnie uczymy się, czym jest bezwładność, równowaga itp. Kiedy stajemy się dorośli i uczymy się nowego przedmiotu, porównujemy to, co nam powiedziano, z rzeczywistością.

W przeciwieństwie do AI, mamy ciało, które działa w określonym środowisku. Człowiek może nauczyć się czegoś nowego, chodząc, wskazując gdzieś palcem lub pytając kogoś i otrzymując odpowiedź. Człowiek integruje to ze swoim modelem świata. Sztuczna inteligencja (przynajmniej w obecnym wcieleniu) nie ma takiej możliwości. Sztuczna inteligencja nie ma ciała, które może wchodzić w interakcje z określonym środowiskiem. Człowiek może otrzymywać informacje zwrotne na temat każdego działania, wyciągać wnioski i włączać je do swojego modelu świata. Sztuczna inteligencja nie ma obecnie takiej informacji zwrotnej. Chociaż istnieją pierwsze próby, aby to zrobić. Dopóki tak się nie stanie, sztuczna inteligencja będzie nadal halucynować.

Bardzo ważnym wnioskiem z tego jest to, że sztuczna inteligencja jest świetnym narzędziem, z którego należy korzystać. Ale zawsze sprawdzaj, czy informacje, które dostarcza, są prawdziwe.

Moją główną radą w radzeniu sobie z halucynacjami AI jest zawężenie celu. Im węższe zadanie, tym lepszy rezultat możemy uzyskać. W końcu im węższe pole, tym lepiej możemy je opisać

Oleksiy Molchanovskyy

kierownik programu studiów magisterskich w zakresie nauki o danych, prodziekan Wydziału Nauk Stosowanych Ukraińskiego Uniwersytetu Katolickiego, szef Komitetu ds. rozwoju sztucznej inteligencji w Ukrainie

W jaki sposób firmy tworzące serwisy AI mogą ograniczyć te halucynacje? Być może zatrudniając testerów?

Oleksiy Molchanovskyy: Im węższe zadanie, tym lepszy możemy uzyskać wynik. Im węższa branża, tym lepiej możemy ją opisać. A dane, na których ta sztuczna inteligencja będzie szkolona, mogą być wykorzystane do opisania jak największej liczby takich przypadków.

Weźmy przykład dokumentów prawnych. Jeśli wprowadzimy jak najwięcej tekstu, opisującego nie tylko ustawy, ale też opinie sądowe i postępowania sądowe, i będziemy zadawać zapytania tylko z tej dziedziny, z tej branży, to jest duża szansa, że nie będzie halucynacji.

Oczywiście możemy też zaangażować testerów.

Ale najlepiej spróbować połączyć weryfikację z siecią, tak by AI sprawdzała i znajdowała jakieś źródła, które można zweryfikować. Ważne jest, aby dać jej ograniczoną listę źródeł, które powinna sprawdzić. Ponieważ istnieją strony, które produkują fake'i.

Moją główną radą w radzeniu sobie z halucynacjami jest zawężenie tematu. Kiedy już zawęzimy to skupienie, możemy zagwarantować użytkownikom wyższą jakość i większą dokładność.

Jest jednak ważny punkt komunikacji z użytkownikami - przy obecnych technologiach nigdy nie można zagwarantować stuprocentowej dokładności. A jeśli pojawią się skargi od użytkowników, które doprowadzą do pewnych konsekwencji dla ciebie - grzywny itp.



Jak radzić sobie z deepfake`ami stworzonymi przez sztuczną inteligencję? Niektórzy z nich wyglądają bardzo realistycznie... 

Oleksiy Molchanovskyy: Dla mnie, jako osoby z sektora edukacji, główną i najskuteczniejszą odpowiedzią jest rozwijanie krytycznego myślenia u naszych użytkowników. Aby kwestionowali to, co widzą, czytają i mieli narzędzia, by to sprawdzić. Wygooglować, sprawdzić, poszukać autentycznych źródeł... Oczywiście jest to część odpowiedzi, ponieważ czasami nie mamy na to wystarczająco dużo czasu. A czasami nie jesteśmy aż tak rozwinięci - w niektórych obszarach mogę być bardziej kompetentny, a w niektórych mniej.

Obecnie widzimy presję w tej kwestii ze strony rządów krajowych. Jest to już wprowadzane w ustawie o sztucznej inteligencji, która jest obecnie rozpatrywana w UE. Stanowi ona, że obrazy lub filmy generowane przez sztuczną inteligencję muszą zawierać znak wodny, etykietę wskazującą, że treść została wygenerowana przez sztuczną inteligencję. Nie jest to panaceum. Ponieważ znak ten można usunąć przy użyciu tych samych technologii, można coś odciąć. Ale jest to pewien krok, który jest wiążący.  Jeśli mówimy o tekstach, jest to znacznie trudniejsze. Nie można umieścić znaku wodnego na określonym tekście, aby wskazać, że został on wygenerowany przez sztuczną inteligencję. Uważny użytkownik po prostu usunie tę wzmiankę i wyśle tekst bez niej. Jest to więc spore wyzwanie.

Istnieje również duże wyzwanie w zakresie identyfikacji autorstwa tekstów. Bo w przypadku plagiatów i zapożyczeń istnieją serwisy, które pozwalają to sprawdzić. I one działają mniej lub bardziej sprawnie, można na nich polegać, pokażą źródła, z których zapożyczenia zostały zaczerpnięte.

W przypadku tekstów generowanych przez sztuczną inteligencję dopiero teraz pojawiają się usługi, które próbują określić i podać procentowe oszacowanie, że dany tekst został stworzony przez sztuczną inteligencję. Jest to możliwe, ponieważ tekst jest generowany przez sztuczną inteligencję przy użyciu metod opartych na statystyce matematycznej. I możemy spróbować wykryć tam wzór. Ale nadal nie daje to stuprocentowej dokładności.

Wracam więc do mojego pierwszego punktu: najważniejszą rzeczą jest rozwijanie krytycznego myślenia. Niestety, nie będzie tu panaceum.

***

UA.NEWS media jest partnerem medialnym iForum-2023 i zaprasza wszystkich do udziału w głównej konferencji IT w Ukrainie, która odbędzie się 10 sierpnia w Międzynarodowym Centrum Wystawienniczym w Kijowie. Szczegóły są dostępne na stronie internetowej iForum tutaj: https://2023.iforum.ua/