Обучение искусственного интеллекта
Чтобы понять, что обещает нам будущее в связи с развитием ИИ, нужно сначала понять, как он стал таким умным. Ключевое понятие тут – «глубокое обучение». Учится ИИ с помощью нейронных сетей. Это понятие было описано еще в 1943 году психологом Уорреном Мак-Каллоком и математиком Уолтером Питтсом, а на практике воплощено 15 лет спустя, когда психолог Фрэнк Розенблатт создал перцептрон. Эта модель содержала около тысячи связанных друг с другом «нейронных клеток», которые могли принимать сигналы от 400 фотоэлементов. Со временем ученые совершенствовали нейронные сети, делая их все более многослойными.
Слово «нейронный» тут неслучайно: компьютерная сеть в самом деле подобна структуре мозга, и чем больше в ней взаимосвязанных элементов («нейронов»), уложенных во множество слоев, тем она эффективнее. Чтобы эта технология работала в полную силу, нужны были большие данные, на которых можно было бы учиться, и огромные вычислительные мощности. Вычислительная мощность – двигатель ИИ, а данные – его бензин. И то и другое в изобилии возникло в XXI веке.
Однако учатся нейронные сети иначе, чем человеческий мозг. Скажем, мы хотим научить ИИ распознавать яблоки на фотографиях. Для этого надо показать ему миллионы фото, помеченных тегом «яблоко», и миллионы фото без яблок. ИИ считает с фотографий множество параметров, которыми потом и будет руководствоваться при отборе. При этом у ИИ нет абстрактного понимания яблока, он не будет ассоциировать его с другими фруктами или с законом всемирного тяготения. В этом его принципиальное отличие от человеческого сознания. Наше внимание и память всегда ограниченны, зато мы умеем обобщать и ассоциировать. ИИ же умеет обнаруживать корреляции между множеством характеристик, на которые люди не обратили бы внимания. Чтобы учиться хорошо, ему нужны:
1) данные (чем больше, тем лучше);
2) узкая область применения (чем конкретнее, тем лучше);
3) конкретная цель (чем конкретнее, тем лучше).
Уязвимость ИИ
У ИИ есть очевидный недостаток: он поневоле пристрастен, поскольку учится только на тех данных, которые ему дают. А они могут быть неполными или неадекватными, отражать расовые, гендерные предрассудки. Как с этим быть?
▶ Постоянно работать над совершенствованием инструментов обучения ИИ, которые могли бы отслеживать работу со статистически неполными базами.
▶ Принять законы, требующие аудита ИИ: если компания получает постоянные жалобы, она рискует подвергнуться такой проверке на предмет соблюдения правил конфиденциальности.
▶ Обучать инженеров ИИ этическим принципам, подобно тому как врачи учат клятву Гиппократа.
▶ Внедрять алгоритмы ИИ, которые способствуют большей прозрачности его решений и принципиально поддаются интерпретации (сегодня мы далеко не всегда можем понять, почему система действует так, а не иначе, – ее работа совершается как будто в «черном ящике»).
▶ Компании, использующие ИИ, должны полностью отдавать себе отчет, где и с какой целью используются системы ИИ.
Мощнейшим ускорителем ИИ станут квантовые вычисления. Если традиционные компьютеры хранят информацию в битах, которые могут принимать всего два значения (0 или 1) и тем самым ограничивают скорость решения задач, то квантовые компьютеры обрабатывают данные с помощью кубитов, которые, согласно законам квантовой механики, могут быть включенными и выключенными одновременно. Это позволяет им обрабатывать огромное количество данных за единицу времени.
Квантовые технологии пока действуют в экспериментальном режиме. В их развитие вкладывают немалые деньги Google и IBM. Однако к 2041 году квантовые компьютеры наверняка станут привычными рабочими инструментами.
Есть опасение, что еще раньше их вычислительными мощностями воспользуются хакеры для взлома ключей к биткоинам. Хотя в 2010 году технология их шифрования была модернизирована, на старых незащищенных счетах остается электронная валюта на сумму $120 млрд.
Чего нам ждать от 2041 года
Другая картинка на экране
В 2041 году реальное видео будет неотличимо от deepfakes. Это понятие, производное от deep learning и fake, появилось в 2017 году. Некий пользователь Reddit стал постить порно со знаменитостями. К их лицам были прикреплены тела порноактеров, для этого использовались алгоритмы генеративно-состязательных нейросетей (GAN). К концу года все крупнейшие контент-площадки вынуждены были удалять фейки со своих ресурсов, обновляя правила использования сервисов: например, блокируя ссылки с «синтетической порнографией».
Конечно, волну было уже не остановить. В 2019 году в Китае появилось приложение, которое делает ваше селфи, а потом за считаные минуты превращает вас в главного героя известного фильма. В 2021 году приложение Avatarify, оживляющее любое фото, стало хитом Apple App Store.
В 2019 году Facebook анонсировал конкурс Deepfake Detection Challenge с целью разработать наиболее эффективный способ отличать фейки. Facebook особенно заинтересован в таких инструментах: в день пользователи этой соцсети загружают более 350 млн изображений. Сразу же оказалось, что инженеров не на чем учить: данных, с которыми можно было бы работать без юридических ограничений, слишком мало. Впрочем, есть более крупная проблема: улучшение методов обнаружения фейков автоматически ведет к улучшению производства новых фальшивок.
А как будет обстоять дело в 2041 году? Есть три сценария:
1. Те компании, которые заботятся о качестве информации, будут устанавливать высококачественные детекторы для выявления подделок с высоким разрешением, созданных крупными сетями GAN, обученными на мощных компьютерах. Сайты со слишком большим количеством фото и видео вроде Facebook вряд ли смогут позволить себе детекторы высшего качества для всего контента – будут задействовать их в особых случаях.
2. Возможен принципиально иной, но чрезвычайно трудоемкий подход – проверка подлинности каждого фото и видео, когда-либо снятых каждой камерой, с помощью технологии блокчейн (гарантирующей, что оригинал никогда не был изменен) в момент съемки. Но для этого все устройства должны поддерживать эту технологию, подобно тому как сегодня все AV-ресиверы в домашних кинотеатрах используют технологию Dolby Digital.
3. Технологическим мерам должны помогать меры административные – высокие штрафы за злонамеренные фейки.
Как бы то ни было, нам нужно привыкать к миру, где онлайн-контент постоянно должен подвергаться сомнению вне зависимости от того, насколько реально он выглядит.