$ 41.63 € 44.06 zł 10.32
0° Kijów +2° Warszawa +1° Waszyngton
Zagrożenia związane ze sztuczną inteligencją: fikcja czy rzeczywistość. Wywiad z Oleksiyem Molchanovskim, szefem Komitetu Rozwoju Sztucznej Inteligencji w Ukrainie

Zagrożenia związane ze sztuczną inteligencją: fikcja czy rzeczywistość. Wywiad z Oleksiyem Molchanovskim, szefem Komitetu Rozwoju Sztucznej Inteligencji w Ukrainie

01 sierpnia 2023 16:55

W wywiadzie dla UA.NEWS Oleksii Molchanovskyy, kierownik programu magisterskiego w zakresie nauki o danych, prodziekan Wydziału Nauk Stosowanych Ukraińskiego Uniwersytetu Katolickiego, szef eksperckiego komitetu doradczego ds. rozwoju sztucznej inteligencji w Ukrainie przy Ministerstwie Transformacji Cyfrowej oraz prelegent iForum w Kijowie w dniu 10 sierpnia, mówi o zagrożeniach związanych ze sztuczną inteligencją, światowych praktykach regulowania i kontrolowania wykorzystania tej technologii, a także o możliwościach regulacji sztucznej inteligencji w Ukrainie.

Jeśli mówimy realistycznie o różnych scenariuszach sztucznej inteligencji, scenariusz opisany w Matrixie lub Terminatorze jest fantastycznym scenariuszem. Dlaczego uważacie, że sztuczna inteligencja będzie chciała zniszczyć ludzkość? Stoję na stanowisku, że musimy ocenić, w jaki sposób technologia jest wykorzystywana. Ten sam deepfake może być wykorzystywany zarówno do manipulacji, jak i w kinie

Oleksii Molchanovskyy

Kierownik programu magisterskiego w dziedzinie nauk o danych, prodziekan Wydziału Nauk Stosowanych UUK, przewodniczący Komitetu ds. rozwoju sztucznej inteligencji W Ukrainie


Jakie są obecne dylematy etyczne związane ze sztuczną inteligencją? Które obawy związane ze sztuczną inteligencją są prawdziwe, a które pochodzą ze świata science fiction?

Oleksii Molchanovskyy:  Największym dylematem jest to, czy sztuczna inteligencja zniszczy ludzkość. Czy chcemy o tym rozmawiać (śmiech)?

Istnieje całe spektrum poglądów wśród ekspertów SI. Można znaleźć takich, którzy uważają, że stanowi ona poważne zagrożenie. Są też tacy, którzy uważają, że nie ma zagrożenia ze strony technologii, matematyki, a wszystko zależy od tego, jak ludzie wykorzystują SI. Uderzającym przykładem jest fizyka jądrowa. Badanie fizyki jądrowej i odkrycie tych praw pozwoliło nam stworzyć bombę atomową i reaktory jądrowe. Jeden jest niszczycielski, drugi zapewnia elektryczność i ciepło w naszych domach.

Ale technologia SI jest potężna - nikt z tym nie dyskutuje.

Stoję na stanowisku, że musimy ocenić, w jaki sposób technologia jest wykorzystywana. Ten sam deepfake może być wykorzystywany zarówno do manipulacji, jak i w kinie - gdy zmarli aktorzy powracają do życia lub obecni aktorzy są odmładzani itp.

Jeśli mówimy realistycznie o różnych scenariuszach, scenariusz opisany w Matrixie lub Terminatorze jest fantastycznym scenariuszem. Autonomiczne roboty niszczące ludzkość, przejmujące władzę i tak dalej - to science fiction.

Pojawia się interesujące pytanie: dlaczego uważacie, że sztuczna inteligencja będzie chciała zniszczyć ludzkość? To ludzie pragną przejmować kontrolę nad innymi. Ale niekoniecznie sztuczna inteligencja będzie tym zainteresowana, że w ogóle będzie miała taki cel.

Obecnie bierzemy w nawias termin świadomość, nigdy nie wspominając o nim w naszej rozmowie - i słusznie. Ponieważ nie wiemy do końca, czym jest świadomość. To zbyt mocny argument, by obdarzać te systemy taką świadomością i jest zbyt wcześnie, by o tym mówić.

Plus, te rozumienia i modele świata są jednym z ważnych czynników. Jak dotąd systemy te nie są zdolne do rozumienia. Być może stopniowo się tego nauczą. Nie wiemy, ile lat to zajmie. Na przykład taki sam wygląd humanoidalnego robota, który będzie z tobą chodził i ci pomagał. Nie robot, który odkurzy twój dom, ale taki, który będzie twoim asystentem i zrozumie twoje potrzeby. Kiedy się pojawi? Trudno powiedzieć, ponieważ istnieje wiele pytań dotyczących nie tylko sztucznej inteligencji, ale także inżynierii i robotyki. Nawet kwestia baterii, jak długo będzie działać, żeby była wystarczająco duża.

Ważnym obszarem w naszej branży jest problem wyrównania. Mówimy o dostosowaniu naszych celów jako jednostki, społeczeństwa lub całej ludzkości do "rozumienia" systemów sztucznej inteligencji. Tak, aby ich zachowanie, osiąganie celów było zgodne z naszymi celami. Jest to duże wyzwanie.

Możemy przypomnieć sobie trzy prawa robotyki Isaaca Asimova. Pierwsze prawo mówi, że robot nie powinien skrzywdzić człowieka. Kiedy ustalamy pewien cel i sztywno go opisujemy, nie zawsze jesteśmy w stanie przewidzieć wszystkie możliwe scenariusze w przyszłości, które mogą naruszyć ten cel. Lub odwrotnie - cel wydaje się być osiągnięty, ale wszystko idzie nie tak, jak chcieliśmy.

Dlatego też istnieją obecnie badania, które sugerują, że robot lub system nie powinien być z góry świadomy naszych celów i nie powinien wiedzieć, czego chcemy. Jedynym sposobem, w jaki mogą dowiedzieć się o naszych celach, jest obserwowanie nas. Wyobraź sobie robota, którego kupujesz, rozpakowujesz w domu i jest zerem. Zaczynasz go poznawać, a robot powoli zaczyna cię obserwować, aby zrozumieć, czego chcesz. Na przykład lubisz pić kawę rano, a robot zaczyna to robić i w ten sposób dopasowuje się do swojego właściciela. I ktoś kupi tego samego robota, ale w innym kontekście kulturowym, będzie miał zupełnie inne czynniki.

Jeśli myślimy o tym w ten sposób, przenosimy problem wyzwań związanych z korzystaniem z tych narzędzi na problemy, które ludzkość już próbuje rozwiązać - zrozumienie między różnymi kulturami i społecznościami.

Nawet jeśli weźmiemy system GPT. Powstaje pytanie: czy potrzebujemy czegoś tak ukraińskiego, czy też chcemy takiej usługi, ale opracowanej przez Ukraińców? Ponieważ istniejący system jest szkolony na tekstach, które wybrali dla niego programiści OpenAI. Ten system widział ukraińskie teksty i jest świadomy ukraińskiego kontekstu. Ale jedno ze źródeł podało, że ukraińskich tekstów było 10 razy mniej niż rosyjskich. Jest to kwestia bezpieczeństwa. Dlatego możliwe jest, że w przyszłości, za 5-10 lat, każdy kraj może mieć swój własny model, który pomoże obywatelom tego kraju.

Technologia jest taka sama, ale jej wdrożenie w różnych krajach (nawet w tym samym kraju, ale w różnych społecznościach) będzie inne, aby było zgodne z wartościami i potrzebami wszystkich poszczególnych społeczności.

Nie bardzo wierzę w przewidywania, że roboty, które wyglądają jak ludzkie ciało i mają zdolności poznawcze zbliżone do ludzkich, powstaną bardzo szybko. Myślę, że zajmie to dziesięciolecia, jeśli nie ponad 50 lat. A może się mylę i mamy tę technologię tuż za rogiem, tylko nie jest jeszcze dostępna. Jeśli wyobrazimy sobie, że takie roboty się pojawią i będą jak ludzie pod względem swoich umiejętności, to nie ma żadnych ograniczeń co do tego, gdzie mogą być używane. Jedyne ograniczenie, jakie się pojawia, jest ekonomiczne

Oleksii Molchanovskyy

Kierownik programu magisterskiego w dziedzinie nauk o danych, prodziekan Wydziału Nauk Stosowanych UUK, przewodniczący Komitetu ds. rozwoju sztucznej inteligencji W Ukrainie




Kiedy byłam dzieckiem, myślałam, że w przyszłości ludzie nie będą bezpośrednio zaangażowani w operacje bojowe, ale będą wykorzystywane roboty... W jakiej przyszłości można stworzyć humanoidalne roboty, które wykorzystują sztuczną inteligencję i są jak najbardziej zbliżone do ludzi pod względem swoich umiejętności, w tym fizycznych? W jakich obszarach takie roboty mogą być wykorzystywane?

Oleksii Molchanovskyy:  Nie bardzo wierzę w przewidywania, że w najbliższym czasie powstaną roboty przypominające ludzkie ciało i o zdolnościach poznawczych zbliżonych do ludzkich. Staram się podchodzić do nich pesymistycznie. Ponieważ w czasach, gdy następuje eksplozja zainteresowania tym obszarem, chcemy wierzyć, że jest to bardzo blisko. Ale jeśli weźmiemy przykład, który podałeś, nawet za twojego życia takie oczekiwania nie zostały spełnione.

Myślę, że zajmie to dziesięciolecia, jeśli nie ponad 50 lat. Nie jest faktem, że zobaczę takie roboty za mojego życia, może moje dzieci to zrobią. A może się mylę i mamy tę technologię tuż za rogiem, tylko nie jest jeszcze dostępna i za 10 lat będziemy mieli takie roboty. W tak burzliwych czasach, gdy wszystko rozwija się tak szybko, bardzo trudno jest dokonać właściwej oceny.

Jeden z neuronaukowców z Allen Institute for Neuroscience powiedział, że jeszcze 100 lat dzieli nas od zrozumienia, jak działa mózg. Tak, wiemy już bardzo dużo, ale w rzeczywistości jest to bardzo mało w porównaniu z tym, ile jeszcze musimy się nauczyć.

Jeśli wyobrazimy sobie, że takie roboty się pojawią i będą podobne do ludzi pod względem swoich możliwości, to nie ma ograniczeń co do tego, gdzie można je wykorzystać.

Jedynym ograniczeniem, jakie się pojawia, jest ograniczenie ekonomiczne. Można to wyraźnie pokazać na przykładzie naszej wojny. Widzimy, że rosjanom znacznie taniej jest sprowadzać więźniów i szturmować nasze wojsko, ponieważ jest to tanie. Jeśli masz robota, który kosztuje kilka milionów dolarów, pojawi się pytanie: czy chciałbyś go używać w takich warunkach? Zakładam, że te roboty nie będą tanie, więc będą używane w szczególnych sytuacjach.

Być może pojawią się roboty uniwersalne, z którymi będzie można rozmawiać, które będą mogły wykonywać pewne zadania. Ale najprawdopodobniej wejdziemy w obszary niszowe. Gdzieś będziemy potrzebować robota, który może chodzić i ma sześć ramion, a gdzieś będziemy potrzebować robota, który w ogóle nie musi chodzić, porusza się po pokoju na kółkach lub lata.

Oznacza to, że przede wszystkim potrzebujemy funkcjonalności od robotów. I być może wcale nie będziemy potrzebować, by wyglądał jak człowiek. Możemy nawet nie chcieć, by wyglądał jak człowiek, ale możemy chcieć zachować wyjątkowość ludzkiego ciała. Ponieważ z jednej strony istnieje wielkie zainteresowanie wszystkim, co generatywne, generowane, sztuczne. A przeciwwagą dla tego jest wszystko, co ludzkie. Kiedy ludzie zaczną bardziej doceniać ciepło bezpośredniej komunikacji międzyludzkiej, w przeciwieństwie do wszystkiego, co sztucznie wygenerowane. Może wtedy zdecydujemy: "Nie, stop, nie chcemy mieć robotów, które wyglądają jak my".

Regulacja i kontrola to bardzo ważna kwestia, a działania rządów w tym obszarze pokazują, że technologia wyszła poza laboratoria i rozrywkę. Unia Europejska jest obecnie liderem w opracowywaniu ram regulacyjnych, więc inne kraje pójdą w jej ślady. W końcu UE jest przede wszystkim znaczącym rynkiem. Jednym z celów naszego Komitetu jest ustalenie, co powinno obowiązywać w Ukrainie. Ukraina jest obecnie na najwcześniejszym etapie w tej kwestii.  Planujemy stworzyć platformę dyskusyjną poświęconą regulacji sztucznej inteligencji w Ukrainie

Oleksii Molchanovskyy

Kierownik programu magisterskiego w dziedzinie nauk o danych, prodziekan Wydziału Nauk Stosowanych UUK, przewodniczący Komitetu ds. rozwoju sztucznej inteligencji W Ukrainie




Regulacja sztucznej inteligencji i jej kontrola. Jakie są trendy w tym obszarze?

Oleksii Molchanovskyy: Regulacja i kontrola to bardzo ważna kwestia, a działania rządów w tym kierunku pokazują, że technologia wyszła poza laboratoria i rozrywkę.

Unia Europejska jest liderem pod względem wprowadzania regulacji. Ustawa o nazwie AI Act nie została jeszcze przyjęta w UE, ale właśnie została sfinalizowana. Oczekuje się, że ustawa zostanie przyjęta jesienią lub wiosną przyszłego roku. Ustawa ta będzie kontynuować historię związaną z pracą z danymi, danymi osobowymi itp.

W Stanach Zjednoczonych i Wielkiej Brytanii podejście jest nieco inne - oparte na prawie angielskim, które przewiduje bardziej ramową historię. Istnieją pewne ogólne zasady, a w ramach ogólnych zasad, jeśli pojawią się jakieś przypadki, są one rozpatrywane i w ten sposób powstaje ciało prawne.

Jeśli mówimy o prawach sztucznej inteligencji, pierwszym prawem, o którym możemy mówić, jest prawo autorskie. Czy systemowi AI można przyznać prawa autorskie? Ale jeśli przyznajemy prawa autorskie, oznacza to, że uznajemy podmiotowość. A jeśli uznamy podmiotowość, to gdzieś w tym spektrum w przyszłości możemy mieć sytuację, w której mamy roboty, których nie możemy wyłączyć, ponieważ mają prawo do istnienia. Pytanie brzmi, czy jesteśmy gotowi przyznać prawa autorskie sztucznej inteligencji?

Mamy już takie przypadki. Kilka lat temu stworzono patent na produkt, który został opracowany przy użyciu sztucznej inteligencji. Wygenerowano pewien obiekt i opisano patent. Jednak Stany Zjednoczone nie zatwierdziły tego wniosku i nie wydały patentu. Powodem jest to, że amerykańskie prawo wyraźnie stanowi, że tylko żywa osoba może być autorem patentu. Uważam jednak, że taki patent został przyznany w Republice Południowej Afryki.  Ten przykład pokazuje różnice między krajami, różne orzecznictwo, w którym przepisy dotyczące sztucznej inteligencji będą interpretowane w różny sposób.

Ograniczenia dotyczące sztucznej inteligencji to już inna historia. Na przykład Chiny również próbują uregulować sztuczną inteligencję, ale ważne jest dla nich, aby generatywne modele sztucznej inteligencji były zgodne z wartościami partii komunistycznej. Demokratyczny Zachód ma swoje własne wymagania - deklaruje, że technologie te muszą być zgodne z wartościami demokratycznymi. Oznacza to, że teksty lub obrazy, które są sprzeczne z pewnymi wartościami, nie mogą być zawarte w zbiorze danych, na których sztuczna inteligencja będzie szkolona w określonej jurysdykcji.

Unia Europejska jest obecnie liderem w opracowywaniu ram regulacyjnych, więc inne kraje pójdą w jej ślady. W końcu UE jest przede wszystkim znaczącym rynkiem, na którym firmy są zainteresowane obecnością, więc będą przestrzegać zasad. Z kolei UE jest zainteresowana sztuczną inteligencją i nie może po prostu wyłączyć dostępu do tych technologii dla swoich obywateli. W takim przypadku Europa nie będzie konkurencyjna w stosunku do Ameryki Północnej. Dlatego europejscy biurokraci są zainteresowani dostosowaniem firm zajmujących się sztuczną inteligencją do swoich standardów.

Czy Ukraina powinna przyjąć własne przepisy dotyczące sztucznej inteligencji?

Oleksii Molchanovskyy: Jednym z celów naszego Komitetu Rozwoju AI jest ustalenie, co powinno obowiązywać w Ukrainie.

Jednym ze scenariuszy jest napisanie własnego prawa dotyczącego sztucznej inteligencji, kierując się ideą, że zbliżamy się do Unii Europejskiej. W związku z tym konieczne jest jego ujednolicenie.

Inną opcją jest czekanie, wstrzymanie się. I przyjęcie pewnego rodzaju ramowego prawodawstwa koncepcyjnego: że uznajemy znaczenie takich technologii i podkreślamy kluczowe aspekty (na przykład bezpieczeństwo danych osobowych). Ale nie zagłębiać się w zagrożenia lub gradacje tych zagrożeń, jak ma to miejsce w UE (gdzie jest to zabronione, gdzie jest dozwolone, gdzie jest to całkowicie zielone światło). Ponieważ możemy nie być w stanie ocenić tego teraz - wymaga to dodatkowych zasobów.

Inną opcją jest po prostu zapożyczenie. Na przykład, jeśli coś jest przyjęte w UE, automatycznie to zatwierdzamy.

Ukraina jest obecnie na bardzo wczesnym etapie w tej kwestii. Dlatego planujemy stworzyć platformę dyskusyjną poświęconą regulacji sztucznej inteligencji w Ukrainie i będziemy stopniowo o tym rozmawiać.

ONZ zaproponowała utworzenie międzynarodowego organu, który regulowałby sztuczną inteligencję, podobnie jak MAEA. Czy jest to konieczne i w jakiej perspektywie można powołać taki organ?

Oleksii Molchanovskyy: Jako obywatel Ukrainy tak naprawdę nie wierzę w siłę ONZ i stworzenie jakiegokolwiek skutecznego mechanizmu. Maksymalne, co mogą zrobić, to zapewnić platformę dyskusyjną do wymiany poglądów, które mogą zostać wysłuchane lub nie.

Tutaj bardziej podoba mi się to, co robi OBWE. Od kilku lat zmierzają w tym kierunku, prowadząc dyskusje na temat sztucznej inteligencji i przedstawiając swoje zalecenia. A najbardziej rozwinięte kraje świata są w to zaangażowane, to one produkują sztuczną inteligencję i używają jej w pierwszej kolejności. Więc prawdopodobnie zwróciłbym się raczej do nich niż do ONZ.



Proszę powiedzieć , o czym będzie Pana prezentacja na iForum, czy mógłby Pan podzielić się jakimiś spostrzeżeniami?

Oleksii Molchanovskyy: Na iForum wezmę udział w dwóch wydarzeniach.

Po pierwsze, przedstawię raport na temat sztucznej inteligencji. Porozmawiamy o obecnej sytuacji wokół sztucznej inteligencji, przyszłości branży i dokąd ona zmierza. Poruszymy kwestie, które zostały poruszone w tym wywiadzie. Jakie są ograniczenia, co należy zrobić, aby je przezwyciężyć i gdzie możemy spojrzeć z perspektywy biznesowej.

Dzisiaj wspomnieliśmy o modelach świata, więc chciałbym, aby systemy sztucznej inteligencji miały takie modele świata. Naukowcy już nad tym pracują. Firmy mogą zacząć patrzeć nieco dalej i zobaczyć, jak można to wykorzystać. W przyszłości ludzie będą mogli kupić sztuczną inteligencję na swoje potrzeby, określony model. Ale wtedy będą mogli kupić model świata, który został wyszkolony dla konkretnego konsumenta.

Obecnie istnieje duże nadmierne zainteresowanie tą technologią, a ja staram się pokazać nie ciemną stronę - to osobna historia - ale pułapkę, w którą wpadniemy, jeśli będziemy mieć nadmierne oczekiwania wobec tej technologii.

Moim drugim zaangażowaniem na iForum jest udział w panelu dyskusyjnym na temat przyszłości, w szczególności edukacji i rynku pracy. Będziemy tam rozmawiać z kolegami o tym, jak i do jakich zawodów musimy się przygotować. Nie ma tu mocnych spostrzeżeń. Jak powiedziałem, ważne jest, aby zobaczyć, jak te technologie zmieniają obecne zawody. Oczywiście możemy fantazjować o wszystkich tych zawodach, ale coś naprawdę nowego jest trudne do przewidzenia, ponieważ nie zostało jeszcze stworzone. Staram się więc nie być zbyt spekulatywny w tym względzie.

***

UA.NEWS media jest partnerem medialnym iForum-2023 i zaprasza wszystkich do udziału w głównej konferencji IT Ukrainy, która odbędzie się 10 sierpnia w Międzynarodowym Centrum Wystawienniczym w Kijowie. Szczegóły są dostępne na stronie iForum tutaj.