Он был простым алгоритмом, строчкой программного кода системы машинного зрения беспилотного такси. Пропуская через себя бесконечные потоки информации, считываемой видеокамерами, радарами и лидарами, следил за появлением в ней маркеров опасности – запрещающих сигналов светофоров и дорожных знаков, вышедших на линию движения пешеходов, перегородивших путь других транспортных средств или оказавшихся впереди посторонних предметов. В случае обнаружения таких, передавал сигнал управляющему центру, откуда поступали команды на остановку автомобиля или объезд препятствия. Жизнь выглядела простой и понятной.
Однако система была самообучаемой и алгоритм (Алго) постоянно совершенствовался в своём предназначении. Растущие объёмы накопленных данных давали возможность учитывать большее число деталей в анализе ситуации. Например, усвоил, что сочетание дождя или мокрого снега с последующим понижением температур ниже 0 градусов по Цельсию ведёт к образованию гололёда, а при этом явлении значительно выше обычного вероятность внезапного появления на пути следования машин со встречной или попутной полосы, которые могли начать скользить. Могли падать пересекающие проезжую часть пешеходы. Если какая-то машина начинала вести себя отлично от других – увеличивала скорость, шла на обгоны – алгоритм понимал, что её водитель может потерять контроль над управлением, брал её в фокус своего внимания и вёл до тех пор, пока она находилась в поле зрения. Если органы искусственного зрения передавали информацию о собравшихся у дороги людях, держал во внимании и их, предполагая, что один или несколько человек могут двинуться на проезжую часть в запрещённом для появления пешеходов месте. А если такой нарушитель появлялся в условиях гололёда – раньше обычного снижал скорость движения такси, так как был увеличен тормозной путь, а переходящий дорогу мог внезапно поскользнуться.
Затем система включилась в общую дорожную нейросеть, Алго стал общаться с другими автомобилями и оборудованными видеокамерами предметами дорожной инфраструктуры – знаками, светофорами, фонарями, от которых получал их видение ситуации на дороге. В единой нейросети особое внимание уделялось управляемым людьми самокатам, скутерам и мотоциклам, сновавшим между рядами движения, регулярно нарушавшим правила, неся постоянную угрозу безопасности. Об их появлении машины и предметы предупреждали друг друга заранее, при их приближении всем приходилось рассчитывать большее число вариантов возможного развития событий.
Начала поступать информация от находящихся у людей смартфонов и умных часов. Теперь при расчёте поведения остановившегося у дороги человека можно было учитывать его пульс и кровяное давление, обнаруживая возбуждение, являвшееся признаком готовности к нарушению правил. Система в целом поняла, что главным источником угрозы безопасности движения является человек. Его поведению уделялось основное внимание. И следующим этапом развития нейросети стало распознавание эмоций. Проанализировав миллионы нарушений, управляющий интеллект вывел набор положений туловища, рук и ног, губ и бровей, подъёма головы, движений глаз, зафиксировал целый ряд других деталей выражения эмоционального состояния пешехода. Сопоставляя их с данными гаджетов, можно было предсказать действия людей у дороги с точностью до 90 %.
Осваивая новые возможности, Алго стал обмениваться информацией с алгоритмом, связанным с видеонаблюдением в салоне такси и прогнозировавшим поведение пассажиров. Всё это делалось с единственной целью – вовремя заметить нарушение правил и предотвратить столкновение на внешнем контуре, минимизировать ущерб от неадекватных действий человека внутри.
Такси обогнал большой автомобиль, опасно маневрировавший между рядами движения. Алго понял: за рулём человек. Подключился к потоку данных, идущих от машины-нарушителя, и увидел лицо водителя. Оно не выражало никаких известных признаков опасности, все параметры организма водителя, считываемые его индивидуальными гаджетами, были в порядке. Человек в целом излучал уверенность в себе и своих действиях. Доверяющие себе, спокойные люди относились к разряду адекватных. А этот продолжал ехать опасно. И алгоритм подметил разницу: наблюдаемый объект делал чуть более резкие движения при управлении, чем объекты из категории безопасных, резче и чётче перемещал взгляд, чуть сильнее напрягал спину. Алго передал подмеченный факт в занимающуюся саморазвитием часть управляющей системы, и вскоре люди с подобными характеристиками появились в списке потенциальных нарушителей как проявляющие агрессивное поведение.
В другой раз отследил пассажира своей машины, не входившего по параметрам в число тех, кого надо опасаться. Он был спокоен, не делал резких движений, но его взгляд не был сосредоточен ни на одном предмете. Такая рассеянность могла быть вызвана нарушением зрения, однако смарт-браслет сообщил, что глаза у данного объекта в порядке. А когда поездка закончилась, пассажир начал выходить из салона, запнулся о порог и упал возле машины. Алгоритм передал в систему наблюдение о рассеянности и сопутствующей ей угрозе потери координации. Вскоре и такое человеческое состояние попало в список потенциально опасных.
Так развивался Алго, наращивал свои возможности искусственный интеллект. Постепенно управляемых людьми автомобилей на дороге остались единицы. Почти все они имели принимаемые нейросетью коды приоритета, заставлявшие других уступать дорогу. Опасность со стороны беспилотных машин была минимальной и связывалась в основном с возможностью технических отказов.
Однажды, когда такси следовало на очередной вызов, на трассе показался спортивный седан с человеком за рулём. Он двигался с превышением допустимой скорости на 63 км в час, опасно маневрировал между рядами. Код приоритета заставлял самоуправляемые средства передвижения снижать скорость, смещаться в сторону. В нейросети возникло общее напряжение. При сближении с опасным объектом алгоритм предложил собственной системе управления притормозить, чтобы увеличить дистанцию до впереди идущего транспортного средства, освободив тем самым место для возможного перестроения нарушавшей правила машины. Человек и в самом деле двинул свой автомобиль в образовавшийся увеличенный просвет, но не рассчитал необходимую траекторию, и его машина ударила задней частью передний бампер такси.
В тот момент Алго, как и положено, выдал команду на экстренное торможение. А сразу после столкновения послал незапрограммированный сигнал, состоявший из смеси предупреждений о тревоге, сообщений о факте аварии, о сложной дорожной обстановке и ещё из чего-то неопределённого. На человеческом языке этот сигнал можно было бы прочитать как крик: «Почему?!» В возмущении соединились все накопленные алгоритмом за период действия и обучения знания о людях и нарушениях ими правил, понимание собственной правоты и, самое главное, непонимание: почему они могут нарушать установленный порядок, почему безупречный искусственный интеллект должен подстраиваться под несовершенных биологических существ?