Ещё раз об искусственном интеллекте
В 2021 году в журнале CIS № 1 (15) мы писали о надеждах и проблемах, связанных с искусственным интеллектом (ИИ). Прошло три года – оправдываются ли наши надежды, связанные с позитивным концептуальным видением роли ИИ, выражающейся в создании общих предпосылок совершенствования общества благодаря значительному росту производительности труда? Такое видение и должно предопределить, как будет применён ИИ, в чьих интересах и как вообще будут сосуществовать человек и ИИ.
Три года срок небольшой для столь серьёзных изменений, но, к сожалению, никаких позитивных начал в этом смысле не наблюдается, скорее наоборот. Раздаются такие голоса некоторых деятелей: ИИ уже превосходит человека, и массовое применение ИИ приведёт к образованию в обществе класса ненужных, бесполезных людей. Но, помимо политэкономической составляющей, имеется и общая проблема, не зависящая от существующей социально-экономической формации. Выясняется, что ИИ, как и всякое новшество, несёт в себе не только благо для человечества, но и зло. Настораживает применение ИИ в социальных процессах, когда он влияет на сознание, навязывает своё видение мира, завоёвывает доверие людей не всегда с добрыми намерениями. А в условиях идеологического вакуума в РФ это крайне опасно. Не случайно в 2023 году более тысячи технических экспертов подписали письмо против слишком быстрого развития ИИ на фоне явного отставания законодательства регулирующего его разработку и использование.
Если говорить о надеждах, связанных с разработкой сильного или общего ИИ, то здесь положение гораздо лучше. Последние годы отличались бурным развитием нейросетей, а нейросеть в некотором смысле и есть низкоуровневая модель нейросетей мозга, там тоже действует большое количество простых элементов, связанных друг с другом. В этом смысле принципы работы искусственного мозга будут такие же. То есть открывается один из путей создания общего ИИ по образу и подобию человеческого мозга.
Что же представляют собой генеративные нейронные сети типа GPT (генеративный предобученный трасформер). Начало этих работ восходит к науке об обработке больших данных (data science), куда входит NLP – natural language processing как средство общения человека с машиной. С использованием NPL-технологий построены все большие языковые модели вроде ChatGPT и другие. NLP-алгоритмы обрабатывают текстовые данные, которые накопились в процессе использования человеческого языка. Всё то, что мы произносим, пишем, печатаем и слышим, можно привести к текстовому формату и обработать с помощью NLP-алгоритмов.
Современные GPT-подобные модели представляют собой класс больших языковых моделей LLM – large language modeles на основе трансформенной архитектуры, которые ещё называют генеративными нейросетями. У современных LLM-моделей большое число параметров, например GPT 3 содержит 175 млрд параметров. Параметры модели – это множество весовых коэффициентов, которые изменяются и оптимизируются в процессе обучения модели. Итоговые значения этих параметров являются результатом обучения модели – они определяют, как модель обрабатывает и генерирует информацию. Чем больше параметров, тем точнее и мощнее модель. Считается, что языковая модель является большой, если содержит более одного миллиарда параметров.
Возникает вопрос: может ли такая модель, или в данном случае вариант реализации ИИ, рассуждать, что, собственно, свойственно интеллекту, или действовать только по правилам, которым его обучили, не допуская, положим, исключения из данных правил. Если только по правилам, то это накладывает определённые требования на данные правила, начиная от актуальности и заканчивая широтой охвата, полны ли они для нахождения правильного ответа. Так как всему обучить сразу невозможно или возможно только на текущий момент. Нет гарантии получения правильного ответа сейчас, может, в следующей итерации да, когда модель будет пополнена новыми правилами. Из этого следует, что решением проблемы должен быть рассудок, способный восполнить недостаток правил или знаний на данный момент, или иначе: прибегнуть к исключению из правил. Но большие языковые модели пока не умеют этого делать, им не по силам сложные логические выводы на основе рассуждений.
Усиления интеллектуальных возможностей большой языковой модели можно добиться за счёт создания механизмов взаимодействия с другими моделями, системами и алгоритмами, специальным программным обеспечением. Формирование эффективного подхода к такому взаимодействию и есть попытка научить большую языковую модель логическому мышлению, рассудку. Когда нечто подобное будет реализовано в различных областях жизни, человечество подойдёт к общему ИИ. В отличие от специального он сможет оперировать не только в границах того, что ранее было придумано, но в отдельных случаях создавать что- то новое, например, находить какие‑то скрытые закономерности, неизвестные ранее.
Получение таким образом общего ИИ не означает появление интеллекта аналогичного интеллекту человека, такой не обладает сознанием, эмоциями. Предполагая развитие его через самообучение, подчеркнём, что такое допустимо только в рамках очерченных человеком, или познание им окружающего мира осуществляется не напрямую, а через человека. Только в таком случае дальнейшее совершенствование ИИ не грозит выходом его из‑под контроля.
Попутно заметим, что создание общего ИИ с точки зрения практического применения и не должно предполагать получение полного аналога человеческого разума. Ведь речь идёт не об искусственном человеке, а только интеллекте. То, что ИИ не обладает эмоциями и т. п., является его главным преимуществом как мощного помощника человека. Допустим, мы получим полный аналог: каков смысл применять его на практике, ведь человек гораздо эффективнее? Применение целесообразно в тех случаях, когда он обладает такими сильными качествами, которые не свойственны человеку, например неподкупность или колоссальная вычислительная мощность, присущая специальному ИИ. Но имитация сознания, свободы воли, эмоций и т. п. с целью достижения абсолютного сходства в прикладном смысле в обозримом будущем не представляет интереса. А вот с точки зрения науки это крайне интересно и здесь никаких ограничений по части самообучения и попыток познания природы и общества напрямую. В таком случае появляется возможность порождения искусственным интеллектом принципиально нового, чего ранее никогда не было. И такой подход важен не только в силу совершенствования и развития общего ИИ, но и для самой науки, которая нуждается в мощном инструментарии познания. Наличие такого будет провоцировать появление новых самых невероятных идей. Но это тот случай, когда ИИ уже выходит из‑под контроля человека, и как раз наука должна дать заключение, провести экспертизу на предмет допустимости выхода в жизнь. И если заключение положительное, то с каким статусом и сроком действия, оставляя тем самым за человеком контроль, может быть, не такой жёсткий.
Появление общего ИИ требует философского переосмысления: не обладающий сознанием и волей, он является объектом как предмет познания и деятельности субъекта, т. е. человека. Вместе с тем в него могут быть заложены мировоззренческие аспекты как система взглядов и понятий об окружающем мире. Он может быть, скажем, материалистом или идеалистом и в зависимости от этого трактовать каждое явление или факт. Разумеется, идеологическая направленность имеет важное значение для принятия им решений в сложных ситуациях. В конце концов, он может быть носителем интересов тех, кто его создавал.
Что касается проблем, то за короткий срок обострилась одна из основных – проблема занятости, о чём говорилось в предыдущей статье. С появлением GPT стало ясно, что уже сейчас трудно найти работу, связанную с умственной деятельностью, которую не смог бы выполнить ИИ. Он может заменить любую функцию при правильном подборе параметров – от рекламных роликов до написания технического задания на проект. Можно оспаривать качество, но это только начало. Аналитики Goldman Sachs пришли к выводу, что генеративный ИИ может заменить человека как минимум в 18 % рабочих задач и повлиять на 300 млн рабочих мест по всему миру. Несмотря на это в РФ нет адекватной реакции, идёт постоянное упование на дефицит кадров, хотя представляется, что он во многом надуман и связан с неправильным регулированием размеров фонда оплаты труда. Конечно, вопрос требует конкретного изучения: каких кадров дефицит, где и в каком временном разрезе он наблюдается. С учётом этого современный хозяйственный механизм настроен на уменьшение числа рабочих мест, в т. ч. за счёт стимулирования внедрения инноваций, включая ИИ, о чём свидетельствует недавнее постановление правительства РФ, направленное на форсированное внедрение ИИ. На первый взгляд может показаться, что такое искусственное ускорение даст положительный эффект. Но многие фирмы ради получения преференций от государства будут стремиться внедрять инновации, даже если это не оправдано. Стремление быть в мировом тренде понятно, хотя есть опасность получения обратного эффекта и дискредитации самой идеи, что не допустимо. Но дело не только в тактике. Мы подчёркивали, что даже при рациональном подходе к внедрению неизбежен конфликт общегосударственных и корпоративных интересов. Одним из решений, позволяющим достичь баланса интересов, могло бы стать создание государственного фонда гарантированного дохода за счёт корпораций, внедряющих ИИ.
Выдвинув человека из производственной сферы, государство должно заботиться о нём и не только в части обеспечения дополнительного гарантированного дохода. Это возможно при условии, если речь идёт о построении социального государства, о чём мы упоминали выше в свете надежды человечества на ИИ. И тут вопрос из социально-экономической плоскости переходит в политическую. Если государство заинтересованно только в вытеснении человека из производства, то это соответствует той миссии, которую, по‑видимому, возлагает на ИИ мировая элита. Они понимают, что высокий уровень производительных сил, в т. ч. наличие ИИ, неизбежно должен привести к изменению системы, что следует из закона соответствия. Не желая этого, они хотят убрать с арены человека, как движущую силу неминуемых преобразований. Вот почему они заявляют о возникновении в новом обществе класса ненужных людей. Человек должен быть уничтожен, в т. ч. с помощью ИИ. Вот такие вероятные планы мировой за кулисы, о которые разбиваются светлые надежды человечества.
Думается, что в РФ строится социальное государство, которое обеспечит максимальную занятость, и даже в случае высвобождения человека из производственной сферы берёт на себя заботу о нём, включая дальнейшее использование его потенциала для других общественных потребностей. Он остаётся полноценным членом общества. Уже сейчас необходимо готовить общество к работе в новых условиях.
Среди прочих задач одна из важнейших – подготовка и переподготовка кадров. Требуется изменить систему школьного образования, признать вредным подход, когда в средней школе начинается профилирование, отказ от физики, например, в пользу обществоведения. Каждый ученик должен получить базовые знания по всем предметам. Это обеспечит высокую адаптивность молодого поколения в быстро меняющемся мире.
Не менее важно повышение качества высшего образования. Необходимо наладить систему профессиональной переподготовки кадров, исходя из того, что это не разовая работа, а постоянный естественный процесс. Например, сегодня человек работает оператором колл-центра, а завтра – в качестве тренера нейросети, а послезавтра – как работник научной лаборатории или слушатель курсов по художественному рисованию. Всё это поможет обеспечить занятость, человек будет подготовлен для работы не только в производственной сфере, может, даже в большей степени будет задействован в науке, культуре, охране природы и других областях, где будет раскрыт его огромный потенциал, который принесёт пользу обществу, повысит интеллектуальный потенциал государства. Вот такая альтернатива должна быть противопоставлена замыслам, направленным против самого существования человечества.
Кроме существенных изменений на рынке труда имеется ряд других проблем, связанных с широким внедрением ИИ разного типа, – от голосовых помощников до написания доклада с помощью генеративных нейросетей. При этом в каждом конкретном случае требуется понимание насколько оправдано использование ИИ с учётом его готовности, степени доверия и ответственности. Если это рекламный ролик – уровень требований низкий, если заключение о выдаче кредита – выше, а если решение по дорогому инвестиционному проекту или применению ИИ в качестве налогового оптимизатора – совсем иные требования, и здесь, возможно, надо воздержаться до появления более мощного специального ИИ, или вообще здесь нужен только общий ИИ.
Сегодня применение ИИ сопряжено с рисками, связанными с тем, что ИИ – это чёрный ящик, велика вероятность ошибки, и даже разработчикам трудно выявить её причину. Да, сейчас ведутся поиски по части создания объяснимого ИИ, возможно, в скором времени вопрос будет решён. Объяснимый ИИ – направление исследований по созданию систем и моделей способных объяснить свои действия и принимать решения понятным для человека образом, что, несомненно, повысит надёжность и доверие к ИИ.
Особую озабоченность вызывает применение ИИ в социальных процессах. Если он может в социальных сетях имитировать человека, то в руках злоумышленников это опасный инструмент. А если так, то целесообразно в первую очередь направить ИИ на борьбу со всякого рода злоумышленниками от выявления ложных сайтов и дипфейков до блокировки телефонных мошенников. Надо возложить на ИИ функцию аутентификации.
Заслуживает всяческого одобрения государственная система «Антифрод», которая запущена Роскомнадзором в 2023 г. для борьбы с телефонными мошенниками. Уже сейчас чат GPT реально используют злоумышленники для написания вредоносных кодов, внедряемых в программные продукты. Наблюдаются инциденты утечки и публикации конфиденциальной информации, организация хакерских атак. Не решив эту проблему, дальнейшее внедрение ИИ сопряжено с огромными рисками и потерей доверия.
Актуальным является вопрос наличия в современных информационных системах технологий ИИ. Так, например, на железнодорожном транспорте уже долгие годы эксплуатируется автоматизированная система управления движением поездов, с помощью которой диспетчер контролирует и регулирует движение в соответствии с заданным графиком. На базе информации, которую он получает от системы, на основе ИИ можно создать авто диспетчера – заменить человека, что повысит надёжность и качество работы системы в целом, т. к. работа диспетчера требует большого внимания и сопряжена с ошибками. До появления общего ИИ, имеет смысл хотя бы ограничиться функциями интеллектуального помощника на основе специального ИИ.
Похожая ситуация в медицине, где функционирует много систем, но они не содержат интеллектуальных компонентов, которые выдавали бы предварительный диагноз и рекомендации, хотя технологии ИИ активно применяются для обработки снимков, кардиограмм и т. п. Дополнение информационных систем ИИ существенно повысит их эффективность и значимость. В целом можно сделать вывод, что современные информационные системы немыслимы без ИИ, который, в конечном счёте, является их основой.
Для успешного функционирования систем ИИ необходимо организовать их постоянное сопровождение, которое заключается в постоянном обновлении и совершенствовании алгоритмов и программ, обязательном их тестировании. Зачастую это недооценивается, в то время как сопровождение не менее важный и трудоёмкий процесс, чем собственно разработка, пренебрежение приводит к ошибкам и некорректной работе. Более того, реализация и эксплуатация систем проходят в условиях, когда РФ не обладает полным суверенитетом в области информационных технологий (ИТ) и ИИ, что накладывает дополнительные требования по обеспечению надёжной и бесперебойной работы систем с применением технологий ИИ. В отдельных случаях, в частности при использовании ИИ на объектах критической инфраструктуры, необходимо предусматривать резервирование и дублирование, включая альтернативные разработки.
Не менее важной проблемой является регулирование ИИ, которое предполагает создание нормативных актов, начиная от законов и заканчивая инструкциями по эксплуатации. В конечном счёте задача регулирования сводится к нахождению баланса между выгодой, которую может принести технология ИИ, и заложенной в ней рисками. Надо признать, что в настоящее время такое регулирование практически отсутствует. На всех уровнях каждый участник делает по‑своему. Понятно, что такое положение может не только усилить риски, но и привести к хаосу в этой сфере. Для контроля развития ИИ странам нужно разработать соответствующие законы и нормативные акты. При использовании в разных отраслях экономики потребуются стандарты, определяющие разработку, тестирование и применение ИИ. Также понадобятся этические кодексы и международные соглашения в сфере использования ИИ, чтобы она соответствовала общественным ценностям и нормам.
Разумеется, в текущей ситуации крайне сложно договориться на международном уровне, где наблюдается гонка за лидерство, но в РФ также нет единого документа, который бы полноценно регулировал сферу ИИ. Есть несколько отдельных норм и рекомендаций. Хотелось бы, чтобы такие нормы опережали работы по разработке и использованию ИИ, и тогда удалось бы избежать неоправданных издержек или их минимизировать в данном процессе. Закон № 408 ФЗ о регулировании рекомендательных технологий, вступивший в силу с 1 октября 2023 года, обязывает владельцев сайтов и приложений раскрывать, какие данные используются для работы рекомендательных систем, откуда их взяли, а также уведомлять пользователей о работе таких систем. Роскомнадзор может заблокировать ресурс до устранения нарушений. Нужный закон, но он далеко не охватывает все стороны и нюансы сложного процесса, можно ли полноценно управлять с помощью данного закона. Как, например, он корреспондирует с появлением и широко используемым чат GPT.
С учётом выше перечисленных проблем представляется целесообразным создать государственный орган, который бы обеспечил их решение, по меньшей мере, это актуально на начальной стадии. Какие основные функции предлагаемого госоргана:
1. Регистрация, учёт движения и тестирование всех имеющихся и вновь созданных типов систем ИИ. Такой орган мог бы, например, провести или организовать тестирование выше упомянутого GPT4 с выдачей соответствующих рекомендаций.
2. Выдача сертификата на использование с указанием типа и фирмы производителя, области применения, уровень надёжности, степень ответственности и т. п. Если речь идёт, например, о юридическом консультанте, пользователю важно иметь полную информацию о нём, включая юридическую дееспособность.
3. Разработка стандартов и классификаторов. Такие стандарты помогли бы консолидировать ресурсы для разработки сложных специальных систем или общего ИИ, где потребуются значительные ресурсы. Это позволит избежать дублирования и дополнительных издержек. Возможно, описать стандартные процедуры сотрудничества человека и ИИ, начиная с порядка действий, если решения расходятся, и заканчивая иными аномальными ситуациями, возникающими при совместной работе.
4. Постоянный мониторинг и обобщение опыта по сопровождению и эксплуатации систем с последующей выдачей рекомендаций.
5. Периодическое представление в законодательные институты предложений по изменениям существующих и по принятию новых законов, положений и т. п.
Кстати сказать, здесь как раз и должен использоваться ИИ со всеми его возможностями, как хороший пример освобождения человека от рутинной работы.
В заключение отметим, что ИИ – это венец ИТ. Он неизбежно сыграет положительную роль в построении совершенного справедливого общества, будет приносить людям пользу при минимальных рисках. Вместе с тем особо следует подчеркнуть, что ИИ надо рассматривать не только с точки зрения потребностей бизнеса. Целесообразно усилить внимание науки к ИИ как к средству получения новых знаний и, с другой стороны, обеспечить научное обоснование и оказать всемерное содействие в развитии и совершенствовании ИИ. Он должен быть приоритетом в работе Академии наук РФ. Среди других важных предпосылок успешного использования ИИ является достижение международных договорённостей по регулированию и недопущению, в частности, применения ИИ в военных целях.
Анатолий Орлюк, доцент РУТ (МИИТ), кандидат экономических наук.
