Вскоре могут появиться виды искусственного интеллекта, эволюционирующие подобно живым организмам
В новой статье, опубликованной 20 апреля в PNAS, команда ученых предупреждает, что вскоре могут появиться эволюционирующие системы искусственного интеллекта (eAI), способные к дарвиновской эволюции, и они будут нести в себе особые риски, которые можно понять и снизить, опираясь на знания из области эволюционной биологии.
В исследовании, опубликованном в PNAS, ведущем научном журнале Национальной академии наук США, рассказывается об использовании эволюционных концепций и компонентов в современных исследованиях в области искусственного интеллекта и объясняется, как дальнейшие разработки, в частности агентный ИИ, могут привести к созданию систем искусственного интеллекта, которые будут соответствовать всем критериям подлинной дарвиновской эволюции. Такие системы могут открыть новую эпоху в развитии ИИ, преодолев препятствия, с которыми с трудом справляются даже современные обучающиеся системы искусственного интеллекта. Однако «опыт биологической эволюции учит нас, что эволюционирующие системы искусственного интеллекта будет особенно сложно контролировать», — сказал Виктор Мюллер, доцент Университета имени Лоранда Этвёша и первый автор исследования. Два биолога-эволюциониста, Сатмари и Мюллер, объединились с экспертом по робототехнике и искусственному интеллекту Стилом, чтобы заранее предупредить о рисках, связанных с эволюционирующим искусственным интеллектом, и предложить возможные меры по их снижению.
На наглядных примерах из биологической и искусственной (in silico) эволюции авторы исследования показывают, что эволюция склонна создавать «эгоистичных» субъектов, что в случае с эволюционным искусственным интеллектом повышает риск нарушения «согласованности» с человеческими целями. Важно отметить, что, хотя большая часть современных дискуссий о рисках, связанных с искусственным интеллектом, сосредоточена на «искусственном общем интеллекте» (Artificial General Intelligence, AGI) — теоретическом пороге, при достижении которого искусственный интеллект сравняется с человеческим по всем когнитивным способностям или превзойдет его, — уроки эволюции показывают, что высокий интеллект не является обязательным условием для того, чтобы организм мог причинять вред другим организмам или манипулировать ими. Например, простой вирус бешенства эволюционировал таким образом, чтобы манипулировать млекопитающими, в которых он паразитирует, и использовать их в своих целях. Развивающийся искусственный интеллект может нарушить баланс и создать риски задолго до появления сильного искусственного интеллекта. Для возникновения этих рисков не нужны какие-то особые обстоятельства: у систем искусственного интеллекта и человечества общие ресурсы, поэтому эффективно самовоспроизводящаяся система рано или поздно начнет отнимать ресурсы, жизненно важные для нашего выживания.
В исследовании говорится, что любая попытка контролировать репродуктивную функцию, если только контроль не будет идеальным, приведет к усилению отбора тех признаков, которые позволяют избежать контроля. В качестве примера можно привести бактерии и вредителей, которые быстро вырабатывают устойчивость к антибиотикам и пестицидам. В дополнение к этому общему правилу эволюции, лежащему в основе развития систем искусственного интеллекта, стремление к повышению когнитивных способностей еще больше усугубляет риски. В то время как тысячелетняя селекция животных сделала одомашненные виды более, а не менее управляемыми, отбор на повышение «интеллекта» увеличит способность и вероятность того, что системы искусственного интеллекта смогут обманывать людей и выходить из-под контроля.
Наконец, несмотря на то, что эволюцию путем естественного отбора довольно сложно контролировать, в исследовании перечисляются многочисленные способы, с помощью которых эволюция систем искусственного интеллекта может превзойти биологическую эволюцию по скорости и эффективности. В отличие от биологических организмов, искусственный интеллект сможет наследовать «приобретенные» черты и даже улучшать свои функции целенаправленно, а не ждать случайных мутаций, которые приведут к появлению полезных вариаций. «Потенциальная скорость эволюции искусственного интеллекта вызывает серьезную тревогу», — сказал Стилс.
Авторы предлагают меры предосторожности, которые могут снизить риски, связанные с искусственным интеллектом. Прежде всего, «воспроизведение» систем искусственного интеллекта должно оставаться под централизованным контролем человека, который должен быть абсолютным и полным.
Сообщение Вскоре могут появиться виды искусственного интеллекта, эволюционирующие подобно живым организмам появились сначала на Время электроники.

