Как работает искусственный интеллект и почему он генерирует фейки: интервью с главой комитета по развитию ИИ в Украине Алексеем Молчановским
26 Липня 2023 16:19 Что такое искусственный интеллект, по какому принципу работают генеративные модели ИИ, почему эти системы придумывают несуществующие факты и как предотвращать такие галлюцинации, а также что поможет бороться с дипфейками, созданными с помощью искусственного интеллекта - в интервью UA.NEWS рассказал Алексей Молчановский, руководитель магистерской программы науки о данных, заместитель декана факультета прикладных наук Украинского католического университета, глава экспертно-консультационного комитета по развитию искусственного интеллекта в Украине при Министерстве цифровой трансформации, а также спикер iForum в Киеве 10 августа.
Расскажите, что такое искусственный интеллект простыми словами и какие модели ИИ сейчас существуют?
Алексей Молчановский: Эти технологии довольно старые, они начали появляться еще в 1956 году, поэтому и развивались они разными способами. Сейчас мы наблюдаем новую волну интереса к искусственному интеллекту, которая поднялась где-то после 2010 года. А особенно – в последний год, когда распространился так называемый генеративный искусственный интеллект или генеративные модели ИИ. Ярким примером такого для текста является ChatGPT. Также есть модели, генерирующие изображения, звук, видео и т.п.
Как же работают эти подходы, в основе которых лежит технология или математические методы, называемые глубинным обучением?
Эти технологии пытаются заимствовать те процессы, которые происходят в нашем мозгу. Но здесь нужно быть очень осторожным, потому что это только определенное приближение и довольно далекое. Тем не менее, они имеют внутри искусственные нейроны, которые сочетаются между собой. И главная их цель и основной принцип, по которому они работают – это выявление и воспроизведение определенных паттернов в данных.
Поэтому, чтобы эти технологии работали, очень важно в первую очередь иметь качественные данные, на которых мы тренируем эти модели. Чем стал мощный ChatGPT и модель GPT? Тем, что эта модель была натренирована на больших объемах текста. Когда мы говорим о сервисах для генерирования изображений, то им были скормлены для тренировки данные изображений с определенным текстом вокруг них – то есть модель имела и изображения, и тексты. И сейчас по тексту можно генерировать изображение.
По аналогии, если вы хотите иметь модель, которая диагностирует заболевание и рак по флюорографии, то вам нужны соответствующие данные. Это предварительные флюорографии, которые размечены экспертами-людьми, которые разбираются в этих данных, могут указать, где есть то, что может интересовать модель, а где этого нет.
Что эти модели делают? Они стараюсь воспроизводить определенные паттерны, обнаруживать их.
Чем они отличаются от баз данных – совсем другого направления в информационных технологиях? В базах данных у нас есть то, что есть, то есть записаны определенные данные. А вот сегодняшние модели ИИ позволяют обобщать эти данные и воспроизводить, работать на тех данных, которых они еще не видели. Поэтому мы говорим о генеративных моделях, которые могут на основе определенного исторического опыта генерировать новые данные.
Из этого следует очень важное последствие. Если у данных есть определенные инсайты, которые вы хотите обнаруживать, модель может научиться. А если в данных этого нет, то модель никогда этого не обнаружит. Если в данных присутствуют определенные предубеждения, дискриминационные данные, то модель может их начать воспроизводить, если вы не сделаете какие-либо сознательные шаги, чтобы обезопасить себя от этого.
По какому техническому принципу отличаются ИИ чат-боты от генераторов изображений и музыки. Что их отличает с технической стороны?
Алексей Молчановский: В первую очередь это данные, потом - это архитектура этих моделей глубокого обучения, на которых они обучены. Там существуют разные подходы и разные хорошо зарекомендовавшие себя механизмы.
В 2010-2012 годах произошел прорыв именно в изображениях. То есть системы искусственного интеллекта начали хорошо справляться с изображениями, распознавать, что на картинках - котики, собачки или люди. Текст подтянулся позже. Сейчас мы видим очень ярко, как эти системы классно работают с текстом, и с изображениями тоже уже становится лучше.
Что касается отличий, то в первую очередь, это отличия в данных, которые использует модель для обучения. Если мы говорим о генерации изображений по тексту – там должны быть и текстовые, и визуальные данные. А если мы говорим о чат-ботах, то там должны быть только текстовые данные.
Но и за чат-ботами скрывается очень большой спектр подходов.
Это может быть простой чат-бот, элементарно основанный на правилах. И если он видит ключевую фразу, то он нам выдает нужный ответ. Большинство чат-ботов от бизнеса, например, банковские (который отвечает за техподдержку или заменяет call-центр), очень примитивны на уровне правил.
А вот чат-боты, основанные на генеративном искусственном интеллекте, выглядят гораздо интереснее. Но здесь есть специфический момент – такие чат-боты должны быть натренированы на специализированных данных, чтобы давать ответ на определенные вопросы. Если мы возьмем банковскую сферу, вам недостаточно взять ChatGPT. Ведь банку интересно, чтобы чат-бот давал ответы на его собственные конкретные сервисы, услуги и инструменты. Соответственно, такой искусственный интеллект нужно потренировать на данных и на базе знаний этого банка.
Еще один пример – система, которая дает советы по юриспруденции, по украинскому корпусу юридических текстов. Нам нужно или натренировать с нуля, или дотренировать этот ChatGPT, эту модель GPT на то, чтобы она имела этот корпус легальной информации - законы, приказы, постановления и тому подобное.
Есть внешние публичные данные, а есть внутренние корпоративные данные. Поэтому какая-то компания не может просто взять и использовать готовый продукт из коробки – нужно все равно его дорабатывать. И часто это не такой уж и простой процесс. Поэтому возникает вопрос, чтобы кто-то вам это сделал – это может быть человек у вас в компании или можно привлечь сторонних специалистов.
Почему искусственный интеллект придумывает несуществующие факты? Как появляются галлюцинации искусственного интеллекта?
Алексей Молчановский: Это важный вопрос в контексте понимания ограничений этой технологии.
Откуда появляются галлюцинации искусственного интеллекта? Нужно четко понимать, что все модели ИИ пытаются обнаруживать определенные паттерны, которые есть в данных. Если мы берём текст, модель смотрит на текст (это может быть сотни миллиардов страниц), модель видит, например, 10 или 100 слов, и пытается угадать, каким будет следующее слово. Когда вы даже с ChatGPT общаетесь, он вам не выдает целый текст, а пишет его по словам, то есть он так и работает по сути.
Мы не можем говорить, что искусственный интеллект что-то понимает. Он просто имеет информацию, какие паттерны наиболее употребляемы, что после такого слова идет такое слово. Когда вы в смартфоне пишете сообщение, вам тоже подсказывают, какое может быть следующее слово – это та же технология, просто упрощенная, не такая мощная, как ChatGPT.
У этого искусственного интеллекта нет понимания мира. Почему ИИ генерирует изображения людей, у которых 6-7 пальцев или искривленные суставы? Потому что в картинках искусственный интеллект оперирует на уровне пикселей, и он знает, что такие пиксели чаще встречаются друг с другом. Люди интерпретируют это как руку или голову. А искусственный интеллект не знает ничего ни о руках, ни о голове. У него есть просто паттерн определенных пикселей.
Соответственно, искусственный интеллект может сгенерировать вам что угодно. Если, конечно, разработчики не поставили поверх технологии какие-либо запреты. Вы попросите ИИ найти кейсы дел, как в случае с американским адвокатом – и он вам придумает, поскольку встречал ранее подобные паттерны, последовательности слов. Потому что у искусственного интеллекта нет никакой связи с реальным миром. Это то, что называется в нашей области моделью мира.
Что такое модель мира и как это понятие касается ИИ?
Алексей Молчановский: У каждого из нас есть модель мира внутри, в нашем воображении, в нашем мозгу. Мы эти модели мира начинаем создавать еще до рождения, слыша определенные звуки и т.д. Когда мы растем, будучи маленькими, мы активно создаем эту модель мира. Физически ходим, смотрим, как двигается объект. Мы изучаем интуитивно, что такое инерция, равновесие и т.п. Когда мы становимся взрослыми и изучаем какой-нибудь новый предмет, то мы сопоставляем то, что нам говорят, с реальностью.
У нас в отличие от ИИ есть тело, действующее в определенной среде. Человек может узнать что-нибудь новое, пойдя, ткнув куда-то пальцем или спросив кого-то и получив ответ. И человек интегрирует это в свою модель мира. У искусственного интеллекта (по крайней мере, в той ипостаси, которую мы сейчас видим) нет такой возможности. ИИ не имеет тела, которое могло бы взаимодействовать с определенной средой. Человек на каждое свое действие может получить обратную связь, сделать вывод и встроить его в свою модель мира. У ИИ такой обратной связи пока нет. Хотя есть первые попытки это сделать. Так что пока этого не будет, ИИ и дальше будет галлюцинировать.
Очень важный вывод из этого, что ИИ-классный инструмент, вы должны им пользоваться. Но всегда проверяйте, какую информацию он фактологически дает.
Основной мой совет для борьбы с галлюцинациями ИИ – это сужение фокуса. Чем более сужена задача, тем лучше мы можем получить результат. Ведь чем более узкая отрасль, тем лучше мы можем ее описать
Как компании, создающие сервисы с искусственным интеллектом, могут снизить эти галлюцинации? Может быть, с помощью найма тестировщиков людей?
Алексей Молчановский: Чем более сужена задача, тем лучше мы можем получить результат. Ведь чем более узкая отрасль, тем лучше мы можем ее описать. И в качестве данных, на которых будет тренироваться этот искусственный интеллект, можно обрисовать как можно больше этих кейсов.
Возьмем пример с правовыми документами. Если мы на вход подадим как можно больший корпус текстов, описывающих не только законы, но и выводы судов, судопроизводство, и будем задавать запросы только внутри этого домена, этой отрасли, то высокие шансы, что галлюцинаций не будет.
Тестировщиков, конечно, тоже можно приобщать.
Но лучше всего – это пробовать подсоединять верификацию к онлайну, чтобы ИИ проверял и находил какие-то источники, которые можно проверить. И важно дать ему ограниченный список источников, который он должен проверять. Потому что есть сайты, производящие фейки.
Основной мой совет для борьбы с галлюцинациями – это сужение фокуса. Как только мы этот фокус сузили, можно гарантировать пользователям большее качество и лучшую точность.
Но здесь есть важный момент коммуникации с пользователями – вы никогда при текущих технологиях не можете гарантировать стопроцентную точность. И если от пользователя будут жалобы, которые приведут к определенным последствиям для вас – штрафам и т.д., вы должны закладывать это в риски вашего бизнеса.
Как можно бороться с дипфейками, которые создает искусственный интеллект? Некоторые из них очень реалистично выглядят...
Алексей Молчановский: Для меня как человека из образовательной отрасли главный и наиболее действенный ответ - развивать критическое мышление в наших пользователях. Чтобы они подвергали сомнению то, что видят, читают и имели инструменты, как это можно проверить. Забей в гугл, проверь, поищи правдивые источники… Конечно, это часть ответа, потому что иногда у нас нет достаточно времени на эту проверку. А иногда мы не столь развиты – в какой-то отрасли я могу быть более компетентным, а в какой-то – меньше.
Сегодня мы видим давление в этом вопросе от правительств государств. Это уже вводится в законе об искусственном интеллекте, который сейчас рассматривается в ЕС. Там указано, что генерируемые ИИ изображения или видео должны содержать водяной знак, метку, указывающие на то, что контент сгенерирован ИИ. Это не панацея. Так как эту метку можно убрать этими же технологиями, что-то отрезать. Но это определенный обязывающий шаг. Если мы говорим о текстах, то с ними гораздо сложнее. Вы не поставите водный знак на виде определенного текста, что этот текст был сгенерирован ИИ. Внимательный пользователь просто сотрет это упоминание и пришлет текст без него. Поэтому здесь есть значительный вызов.
Есть и большой вызов с точки зрения обнаружения авторства текстов. Потому что в случае плагиата и заимствований есть сервисы, позволяющие это проверить. И они работают более-менее качественно, на них можно полагаться, они покажут источники, откуда взяты заимствования.
В случае с генерированным ИИ текстом сейчас только появляются сервисы, которые пытаются определить и дать процентную оценку того, что конкретный текст был создан искусственным интеллектом. Это стало возможным благодаря тому, что текст генерируется ИИ по методам, основанным на математической статистике. И мы можем пытаться обнаруживать там шаблон. Но все равно это не дает стопроцентной точности.
Поэтому я возвращаюсь к своему первому тезису: самое важное – это развивать критическое мышление. К сожалению, здесь панацеи не будет.
***
Медиа UA.NEWS является информационным партнером iForum-2023 и приглашает всех желающих принять участие в главной ИТ-конференции Украины 10 августа в МВЦ в Киеве. Детали на сайте iForum по ссылке: https://2023.iforum.ua/