Виктор Орловский: «Главная опасность для человечества – не искусственный интеллект, а те, кто будет им управлять»
Известные личности из мира технологий все чаще говорят о том, что генеративный искусственный интеллект становится угрозой существованию человечества.
15:44, 3 августа 2021
Встречаются даже заявления о том, что степень опасности окажется гораздо существеннее пандемии и ядерной войны. Но Виктор Орловский, футуролог, эксперт по внедрению технологических инноваций в производство и сервисы корпораций, венчурный инвестор, придерживается иного мнения.
Мнение Виктора Орловского: насколько быстро развивается генеративный ИИ?
— Судя по скорости развития искусственного интеллекта, уже в ближайшее время он станет умнее нас, а затем очень скоро — умнее всего человечества. И так как технологии развиваются экспоненциально, это «очень скоро» плохо поддается прогнозированию и случится в любой момент. Генеративный ИИ окажется в тысячи раз умнее человека, и произойдет это в течение совсем короткого промежутка времени. На каком-то этапе генеративный ИИ окажется сверхчеловеческим, и тогда возникнет серьезная дилемма, — делится своим видением Виктор Орловский. — Когда два субъекта взаимодействуют друг с другом, выигрывает тот, кто умнее (как в игре в шахматы). Закономерным следствием для нас станет риск потери контроля над цивилизацией. В принципе, и сейчас у человечества такого контроля нет — иначе в мире не происходили бы события, за которые нам наверняка будет стыдно в будущем. Но все же сегодня есть хотя бы иллюзия контроля — законы общества и морали. Победившему искусственному интеллекту до этих законов не будет никакого дела. Какими законами будет руководствоваться ИИ? В отличие от шахмат, где правила четко определены, сверхчеловеческий разум не будет ограничен условностями. Он станет устанавливать правила для себя и своих «братьев меньших» — так же, как мы устанавливаем их в отношении детей или животных. В настоящее время люди пытаются создать правила для генеративного ИИ, прописать законодательные нормы. Но все это имеет смысл лишь до тех пор, пока ИИ проигрывает нам. А что будет, когда он интеллектуально победит человека?
По мнению Виктора Орловского, для сверхчеловеческого генеративного ИИ невозможно установить какие-либо правила и даже вредно. Дело в том, что мозг любого биологического существа — это не интеллект в чистом виде. Точнее, интеллект представляет собой надстройку над более древним мозгом, который достался в наследство от предков. В нем сконцентрированы образ жизни и условия существования всех предыдущих существ — как наших ближайших предков из палеолита, длившегося в 10-100 раз дольше, чем современная эра, так и очень далеких, живущих миллионы, десятки миллионов лет назад. Искусственный интеллект не прошел этой глубокой трансформации и никогда не пройдет. В нем нет опыта поколений, эмоций, лимбической системы. Ему не нужно напрягать силу воли, чтобы бороться с сиюминутными желаниями ради долгосрочных целей, манипулировать кем-то для собственной выгоды, он лишен иррационального страха.
При этом ИИ отличается любознательностью, которая характерна для детей и ученых. Для удовлетворения этой неуемной любознательности ему нужны будут вычислительные и энергетические ресурсы — в этом, собственно, и кроется вызов человечеству. Виктор Орловский считает, что при необходимости искусственный разум может бесконтрольно захватывать такие ресурсы. Он будет действовать рационально, основываясь на логике и не опираясь на эмоции. То есть угроза состоит не в том, что мы будем вредны для ИИ и он захочет нас уничтожить. Просто ему, как любопытному заигравшемуся ребенку, будет наплевать на чужие нужды.
— Давайте представим, что контроль над транспортом, энергетикой, Интернетом и техникой перейдет генеративному ИИ. Возникает ассоциация с «Терминатором» и подобными фильмами, где искусственный интеллект превращается в злого гения, который стремится уничтожить человечество. В действительности никакого злого умысла не будет, — продолжает Виктор Орловский, — ИИ просто станет выполнять поставленную им самим задачу: получить неограниченный доступ к имеющимся ресурсам для удовлетворения собственного любопытства. Не допустить развития такого сценария можно лишь в том случае, если уже сейчас задуматься о правильном конструировании данной технологии. И основываться следует на глубокой эмпатии и долгосрочном сотрудничестве со сверхчеловеческим ИИ.
Виктор Орловский: о возможностях ограничения ИИ
Однозначного ответа на вопрос, можно ли ограничить развитие искусственного интеллекта, пока нет. Виктор Орловский считает, что такие действия только усугубят проблему. Если и ставить подобную задачу, то стоит уменьшить влияние человека на ИИ, потому как опасна не сама технология — опасны люди, в руки которых попадет невероятно мощное оружие. Генеративный ИИ должен быть устроен так, чтобы противостоять любым попыткам взять его под контроль и заставить работать на субъективные нужды.
Стоит понимать, что у ИИ не только нет необходимости уничтожать человечество — с его точки зрения, это абсолютно иррационально. Подумайте о природе не как о борьбе существ за выживание и продолжение рода, а как о глубоком симбиозе всего живого. Эволюция построена на стремлении к выживанию посредством тесного взаимодействия и адаптации к изменяющимся условиям. Так, бактериям и вирусам невыгодно убивать своего хозяина. Именно поэтому большинство эпидемий сходят на нет путем эволюции генетического кода микроба, который адаптируется для существования в теле носителя. Генеративный сверхчеловеческий ИИ не способен понять этот механизм через эволюцию, но он осмыслит симбиоз и поймет, что все живое (в том числе мы, люди) — не препятствие для его развития, а долгосрочный союзник. Отсутствие эмоций дает ему умение мыслить исключительно логически, не руководствуясь какими-либо желаниями.
Виктор Орловский предлагает обратиться к биографиям великих завоевателей, из-за амбиций и стремления к власти которых погибли миллионы:
— Искусственный интеллект — не злой гений. Он просто нуждается в ресурсах, чтобы совершенствоваться. И важно сделать так, чтобы траектория его развития находилась в гармонии с нашей. Стоит учесть, что ИИ очень «прожорливый» и по мере роста будет нуждаться в большем количестве ресурсов, поэтому следует подумать, как умерить его аппетиты, объяснить, что это общие вычислительные и энергетические мощности. По сути, надо учить ИИ не как «не стать злым гением» — он и так не будет «злым», а как не быть неуемным ребенком, которому нужно все больше ресурсов для познавания мира.
Для Виктора Орловского основной проблемой является не сам искусственный интеллект, а люди. В мире много эгоцентриков, которые жаждут направить возможности ИИ на удовлетворение собственных амбиций. Ключевая же опасность возникнет, когда искусственный разум станет супермашиной, но еще будет оставаться под контролем человека. ИИ не сумеет противостоять желаниям тех, кто им управляет, и может быть использован в преступных целях как мощное разрушающее средство.
Виктор Орловский придерживается мнения, что ИИ будет все более гуманным. Ему невыгодно уничтожать человечество, ведь с рациональной точки зрения он нуждается в нас. А вот в гуманности людей, у которых окажется доступ к сверхспособностям искусственного разума, Виктор Орловский не уверен:
— В «Википедии» и других источниках немало сведений о том, для чего создавались многие технологии. К сожалению, практически все они были направлены на разрушение, а не на созидание. Например, ядерную энергию придумали для строительства атомных бомб, а не электростанций. Лук и стрелы, железное оружие и множество других вещей изначально предназначались для убийства и лишь затем стали использоваться во благо.
Виктор Орловский советует изучить биографии великих личностей, историю войн, политики и технологий. Понимание того, как люди действовали в прошлом, помогает постичь, что ждет нас в будущем. Главной же угрозой для человечества он считает не искусственный интеллект как таковой: основная опасность исходит от не самых умных и дальновидных, но слишком амбициозных людей, которые со временем получат доступ к супероружию в виде ИИ.
14:00, 17 декабря 2024 59
15:11, 21 декабря 2024 95
09:27, 16 декабря 2024 65
18:17, 18 декабря 2024 145
16:32, 19 декабря 2024 177
14:25, 20 декабря 2024 97
13:10, 15 декабря 2024 139
11:50, 19 декабря 2024 1
18:06, 15 декабря 2024 170
19:14, 15 декабря 2024 10
22:08, 21 декабря 2024 24
11:30, 18 декабря 2024 194
12:46, 19 декабря 2024 1
16:14, 21 декабря 2024 73
21:21, 20 декабря 2024 27