Почему искусственный интеллект спасет мир?

Почему искусственный интеллект спасет мир?
 
Эра искусственного интеллекта уже наступила, и люди напуганы. К счастью, я здесь, чтобы сообщить хорошие новости: ИИ не уничтожит мир, а, более того, может спасти его.
 
Сначала коротко о том, что такое ИИ: Применение математики и программного кода для обучения компьютеров тому, как понимать, синтезировать и генерировать знания способами, аналогичными тому, как это делают люди. ИИ - это такая же компьютерная программа, как и любая другая: она запускается, принимает входные данные, обрабатывает их и генерирует выходные данные. Результаты работы ИИ полезны в самых разных областях - от кодирования до медицины, от юриспруденции до творческого искусства. Он принадлежит людям и управляется людьми, как и любая другая технология.
 
Краткое описание того, чем ИИ не является: Программы-убийцы и роботы, которые оживают и решают убить человечество или разрушить все вокруг, как в кино.
 
Еще более краткое описание того, чем может стать ИИ: Способ сделать лучше все, о чем мы заботимся.
 
Почему ИИ может сделать все, о чем мы заботимся, лучше
 
Наиболее подтвержденный основной вывод социальных наук, сделанный на протяжении многих десятилетий и тысяч исследований, заключается в том, что человеческий интеллект улучшает очень широкий спектр жизненных результатов. Более умные люди имеют лучшие результаты почти в каждой сфере деятельности: академическая успеваемость, работа, профессиональный статус, доход, творчество, физическое здоровье, продолжительность жизни, освоение новых навыков, управление сложными задачами, лидерство, успех в предпринимательстве, разрешение конфликтов, понимание прочитанного, принятие финансовых решений, понимание чужой точки зрения, творчество, воспитание детей и удовлетворенность жизнью.
 
Кроме того, человеческий интеллект - это рычаг, который мы использовали на протяжении тысячелетий для создания мира, в котором живем сегодня: науки, технологии, математики, физики, химии, медицины, энергетики, строительства, транспорта, коммуникации, искусства, музыки, культуры, философии, этики, морали. Без применения интеллекта во всех этих сферах мы все до сих пор жили бы в глинобитных хижинах, влача жалкое существование за счет натурального хозяйства. Вместо этого мы использовали наш интеллект для повышения уровня жизни в 10 000 раз за последние 4 000 лет.
 
ИИ предлагает нам возможность глубоко усилить человеческий интеллект, чтобы сделать все эти результаты использования интеллекта - и многие другие, от создания новых лекарств до способов решения проблемы изменения климата и технологий для достижения звезд - намного, намного лучше.
 
Расширение человеческого интеллекта с помощью ИИ уже началось - ИИ уже вокруг нас в виде компьютерных систем управления многих видов, сейчас он стремительно развивается с помощью больших языковых моделей ИИ, таких как ChatGPT, и будет очень быстро ускоряться дальше - если мы позволим ему это сделать.
 
В нашу новую эру искусственного интеллекта:
 
У каждого ребенка будет ИИ-наставник, бесконечно терпеливый, бесконечно сострадательный, бесконечно знающий, бесконечно полезный. ИИ-наставник будет рядом с каждым ребенком на каждом этапе его развития, помогая ему максимально раскрыть свой потенциал с помощью машинной версии бесконечной любви.
 
У каждого человека будет ИИ-ассистент/тренер/наставник/инструктор/советник/терапевт, который будет бесконечно терпелив, бесконечно сострадателен, бесконечно сведущ и бесконечно полезен. ИИ-ассистент будет присутствовать во всех жизненных возможностях и проблемах, максимизируя результаты каждого человека.
 
У каждого ученого появится помощник/сотрудник/партнер с ИИ, который значительно расширит сферу его научных исследований и достижений. Каждый художник, каждый инженер, каждый бизнесмен, каждый врач, каждый сиделка будут иметь то же самое в своих мирах.
 
Каждый лидер людей - генеральный директор, правительственный чиновник, президент некоммерческой организации, спортивный тренер, учитель - будет иметь то же самое. Эффект увеличения от принятия лидерами лучших решений в отношении людей, которыми они руководят, огромен, поэтому такое увеличение интеллекта может быть самым важным из всех.
 
Рост производительности труда в экономике значительно ускорится, что приведет к экономическому росту, созданию новых отраслей, появлению новых рабочих мест, росту заработной платы и, как следствие, к новой эре повышенного материального благосостояния на всей планете.
 
Научные прорывы, новые технологии и лекарства резко расширятся, поскольку ИИ поможет нам расшифровать законы природы и использовать их в наших интересах.
 
Творческое искусство вступит в золотой век, поскольку художники, музыканты, писатели и кинематографисты с помощью ИИ получат возможность реализовывать свои идеи гораздо быстрее и в больших масштабах, чем когда-либо прежде.
 
Я даже думаю, что ИИ улучшит ведение войны, когда это будет необходимо, резко снизив уровень смертности в военное время. Любая война характеризуется ужасными решениями, принимаемыми под сильным давлением и с резко ограниченной информацией очень ограниченными человеческими лидерами. Теперь у военных командиров и политических лидеров будут советники с искусственным интеллектом, которые помогут им принимать гораздо лучшие стратегические и тактические решения, сводя к минимуму риск, ошибки и ненужное кровопролитие.
 
Одним словом, все, что сегодня люди делают с помощью своего естественного интеллекта, можно сделать гораздо лучше с помощью ИИ, и мы сможем решать новые задачи, которые невозможно было решить без ИИ, от лечения всех болезней до межзвездных путешествий.
 
И речь идет не только об интеллекте! Возможно, самым недооцененным качеством ИИ является его гуманизация. Искусство ИИ дает людям, не имеющим технических навыков, свободу творить и делиться своими художественными идеями. Общение с сочувствующим другом ИИ действительно улучшает их способность справляться с трудностями. А медицинские чат-боты ИИ уже сейчас проявляют больше сочувствия, чем их человеческие коллеги. Вместо того чтобы сделать мир более суровым и механистичным, бесконечно терпеливый и сочувствующий ИИ сделает мир теплее и добрее.
Ставки здесь высоки. Возможности огромны. ИИ, вполне возможно, является самым важным - и самым лучшим - из того, что когда-либо было создано нашей цивилизацией, наравне с электричеством и микрочипами, а возможно, и превосходя их.
 
Развитие и распространение ИИ - далеко не тот риск, которого мы должны бояться, - это моральное обязательство, которое мы несем перед собой, перед нашими детьми и перед нашим будущим.
 
С ИИ мы должны жить в гораздо лучшем мире, и теперь мы можем это сделать.
 
Так почему же возникла паника?
 
В противоположность этому позитивному мнению, общественные разговоры об ИИ в настоящее время пронизаны истерическим страхом и паранойей.
 
Мы слышим заявления о том, что ИИ убьет нас всех, разрушит наше общество, заберет все наши рабочие места, вызовет разрушительное неравенство и позволит плохим людям делать ужасные вещи.
 
Чем объясняется такое расхождение в потенциальных результатах - от почти утопии до ужасающей антиутопии?
 
Исторически каждая новая технология, имеющая значение, от электрического освещения до автомобилей, от радио до Интернета, вызывала моральную панику - социальную заразу, которая убеждала людей, что новая технология разрушит мир, или общество, или и то, и другое. Прекрасные ребята из Pessimists Archive задокументировали эти вызванные технологиями моральные паники на протяжении десятилетий; их история наглядно демонстрирует закономерность. Оказывается, нынешняя паника - даже не первая для ИИ.
 
Безусловно, многие новые технологии приводили к плохим результатам - часто те же самые технологии, которые в других случаях приносили огромную пользу нашему благосостоянию. Поэтому нельзя сказать, что само по себе существование моральной паники означает, что беспокоиться не о чем.
 
Но моральная паника по своей природе иррациональна - она берет то, что может быть законным беспокойством, и раздувает его до уровня истерии, которая по иронии судьбы затрудняет противостояние действительно серьезным проблемам.
 
А у нас сейчас полномасштабная моральная паника по поводу ИИ.
 
Эта моральная паника уже используется в качестве мотивации различными субъектами, требующими принятия политических мер - новых ограничений, правил и законов в отношении ИИ. Эти субъекты, которые делают крайне драматичные публичные заявления об опасностях ИИ, подпитывая и еще больше нагнетая моральную панику, представляют себя бескорыстными поборниками общественного блага.
 
Но так ли это?
 
И правы они или нет?
 
Баптисты и бутлегеры ИИ
 
Экономисты давно заметили закономерность в реформаторских движениях такого рода. Действующие лица в подобных движениях делятся на две категории - "баптисты" и "бутлегеры" - на историческом примере запрета алкоголя в США в 1920-х годах:
 
"Баптисты" - это истинно верующие социальные реформаторы, которые обоснованно чувствуют - глубоко и эмоционально, если не рационально - что новые ограничения, правила и законы необходимы для предотвращения общественной катастрофы. В случае запрета алкоголя этими действующими лицами часто были буквально набожные христиане, которые считали, что алкоголь разрушает моральную ткань общества. Что касается риска ИИ, то эти субъекты искренне верят в то, что ИИ представляет ту или иную экзистенциальную опасность - пристегните их к детектору лжи, они действительно так считают.
 
"Бутлегеры" - это корыстные оппортунисты, которые получают финансовую выгоду от введения новых ограничений, правил и законов, ограждающих их от конкурентов. В случае с запретом на алкоголь это были в прямом смысле слова бутлегеры, которые сколотили состояние на продаже нелегального алкоголя американцам, когда продажа легального алкоголя была запрещена. Что касается риска ИИ, то это руководители компаний, которые смогут заработать больше денег, если будут установлены регуляторные барьеры, которые сформируют картель благословленных правительством поставщиков ИИ, защищенных от новых стартапов и конкуренции с открытым исходным кодом - программная версия банков "слишком больших, чтобы обанкротиться".
 
Циник может предположить, что некоторые из явных баптистов также являются бутлегерами - в частности, те, кому платят за нападки на ИИ их университеты, аналитические центры, активистские группы и СМИ. Если вам платят зарплату или вы получаете гранты на разжигание паники по поводу ИИ... вы, вероятно, бутлегер.
 
Проблема бутлегеров в том, что они побеждают. Баптисты - наивные идеологи, бутлегеры - циничные операторы, поэтому результатом подобных реформаторских движений часто является то, что бутлегеры получают то, что хотят - захват регуляторов, изоляцию от конкуренции, создание картеля - а баптисты остаются в недоумении, почему их стремление к улучшению общества пошло так плохо.
 
Мы только что пережили потрясающий пример этого - банковскую реформу после мирового финансового кризиса 2008 года. Баптисты говорили нам, что нам нужны новые законы и правила, чтобы разрушить "слишком большие, чтобы обанкротиться" банки, чтобы предотвратить повторение подобного кризиса. В 2010 году Конгресс принял закон Додда-Франка, который рекламировался как отвечающий целям баптистов, но в действительности был принят "бутлегерами" - крупными банками. В результате те же самые банки, которые были "слишком большими, чтобы обанкротиться" в 2008 году, сейчас намного, намного больше.
 
Так что на практике, даже когда баптисты искренни - и даже когда баптисты правы - они используются в качестве прикрытия манипулятивными и продажными бутлегерами, чтобы извлечь выгоду для себя. 
 
Именно это и происходит сейчас в стремлении к регулированию ИИ.
 
Однако недостаточно просто определить действующих лиц и обвинить их мотивы. Мы должны рассмотреть аргументы как баптистов, так и бутлегеров по существу.
 
Риск ИИ №1: Убьет ли ИИ нас всех?
 
Первый и первоначальный риск, связанный с ИИ, заключается в том, что ИИ решит буквально убить человечество.
 
Страх того, что технология нашего собственного создания восстанет и уничтожит нас, глубоко закодирован в нашей культуре. Греки выразили этот страх в мифе о Прометее - Прометей принес человеку разрушительную силу огня и, в более общем смысле, технологии ("техне"), за что Прометей был осужден богами на вечные пытки. Позже Мэри Шелли дала нам, современным людям, свою собственную версию этого мифа в романе "Франкенштейн, или Современный Прометей", в котором мы разрабатываем технологию вечной жизни, которая затем восстает и стремится уничтожить нас. И конечно, ни одна газетная статья о панике ИИ не обходится без изображения сверкающего красноглазого робота-убийцы из фильмов Джеймса Кэмерона "Терминатор".
 
Предполагаемая эволюционная цель этой мифологии - побудить нас серьезно рассматривать потенциальные риски новых технологий - огонь, в конце концов, действительно может быть использован для сожжения целых городов. Но так же, как огонь был основой современной цивилизации, поскольку использовался для того, чтобы согреть и обезопасить нас в холодном и враждебном мире, эта мифология игнорирует гораздо больше плюсов большинства - всех? - новых технологий, и на практике разжигает деструктивные эмоции, а не разумный анализ. То, что современный человек так испугался, не означает, что мы должны так же; вместо этого мы можем применить рациональный подход.
 
Я считаю, что идея о том, что ИИ решит буквально убить человечество, является глубокой категориальной ошибкой. ИИ - это не живое существо, которое миллиарды лет эволюции готовили к участию в борьбе за выживание сильнейших, как это делают животные и как это делаем мы. Это математика - код - компьютеры, созданные людьми, принадлежащие людям, используемые людьми, контролируемые людьми. Идея о том, что в какой-то момент он обретет собственный разум и решит, что у него есть мотивы, побуждающие его попытаться убить нас, - это суеверная махина.
 
Короче говоря, ИИ не хочет, у него нет целей, он не хочет убить вас, потому что он не живой. А ИИ - машина - не оживет больше, чем оживет ваш тостер.
 
Разумеется, есть истинные верующие в ИИ-убийцу - баптисты, которые получают неожиданно стратосферное освещение в СМИ за свои ужасающие предупреждения. Некоторые из них утверждают, что изучали эту тему десятилетиями и говорят, что теперь они до смерти напуганы тем, что узнали. Некоторые из этих истинно верующих даже являются настоящими новаторами технологии. Эти деятели выступают за различные причудливые и экстремальные ограничения на ИИ, начиная от запрета на разработку ИИ и заканчивая военными авиаударами по центрам обработки данных и ядерной войной. Они утверждают, что поскольку люди вроде меня не могут исключить катастрофические последствия ИИ в будущем, мы должны занять позицию предосторожности, которая может потребовать большого количества физического насилия и смерти, чтобы предотвратить потенциальный экзистенциальный риск.
 
Мой ответ заключается в том, что их позиция ненаучна - Какова проверяемая гипотеза? Что могло бы фальсифицировать гипотезу? Как мы узнаем, когда попадаем в опасную зону? Эти вопросы остаются в основном без ответа, кроме "Вы не можете доказать, что этого не произойдет!". На самом деле, позиция этих баптистов настолько ненаучна и настолько экстремальна - теория заговора о математике и коде - и уже призывает к физическому насилию, что я сделаю то, чего обычно не делаю, и подвергну сомнению их мотивы.
 
В частности, я думаю, что происходят три вещи:
 
Во-первых, вспомните, что Джон фон Нейман в ответ на знаменитые стенания Роберта Оппенгеймера о его роли в создании ядерного оружия, которое помогло закончить Вторую мировую войну и предотвратить Третью мировую войну, сказал: "Некоторые люди признают свою вину, чтобы присвоить себе грех". Каким наиболее драматичным способом можно заявить о важности своей работы, не показавшись при этом откровенным хвастуном? Это объясняет несоответствие между словами и действиями баптистов, которые на самом деле строят и финансируют ИИ - следите за их действиями, а не за их словами. (Трумэн был более резок после встречи с Оппенгеймером: "Больше не пускайте сюда этого плаксу").
 
Во-вторых, некоторые из баптистов на самом деле являются бутлегерами. Существует целая профессия "эксперт по безопасности ИИ", "этик ИИ", "исследователь рисков ИИ". Им платят за то, чтобы они были обличителями, и их заявления следует обрабатывать соответствующим образом.
 
В-третьих, Калифорния оправданно славится многими тысячами культов, от EST до Народного храма, от Небесных врат до семьи Мэнсона. Многие, хотя и не все, из этих культов безобидны и, возможно, даже служат цели для отчужденных людей, которые находят в них приют. Но некоторые из них действительно очень опасны, и культы, как известно, с трудом переступают ту грань, которая в конечном итоге приводит к насилию и смерти.
 
И реальность, которая очевидна для всех в Районе залива, но, вероятно, не за его пределами, заключается в том, что "Риск ИИ" превратился в культ, который внезапно оказался в центре внимания мировой прессы и общественного обсуждения. Этот культ втянул в себя не только периферийных персонажей, но и некоторых реальных экспертов отрасли и немалое число богатых доноров - включая, до недавнего времени, Сэма Бэнкмана-Фрида. И он разработал полный набор культовых моделей поведения и убеждений.
 
Именно из-за этого культа и существует ряд ИИ-рисковиков, которые звучат так экстремально - дело не в том, что они действительно обладают тайными знаниями, которые делают их экстремизм логичным, а в том, что они довели себя до исступления и действительно... чрезвычайно экстремальны.
 
Оказывается, этот тип культа не нов - существует давняя западная традиция милленаризма, которая порождает культы апокалипсиса. Культ риска ИИ имеет все признаки милленаристского культа апокалипсиса. Из Википедии, с моими дополнениями:
 
"Милленаризм - это вера группы или движения [сторонники риска ИИ] в грядущую фундаментальную трансформацию общества [приход ИИ], после которой все изменится [ИИ-утопия, антиутопия и/или конец света]. Считается, что только драматические события [запрет ИИ, авиаудары по центрам обработки данных, ядерные удары по нерегулируемому ИИ] способны изменить мир [предотвратить ИИ], и ожидается, что изменения произойдут или будут пережиты группой набожных и посвященных людей. В большинстве милленаристских сценариев за грядущей катастрофой или битвой [ИИ-апокалипсис или его предотвращение] последует новый, очищенный мир [запрет ИИ], в котором верующие будут вознаграждены [или, по крайней мере, признаны, что все это время были правы]".
 
Эта схема культа апокалипсиса настолько очевидна, что я удивлен, что больше людей не видят ее.
 
Не поймите меня неправильно, о культах интересно слушать, их письменные материалы часто креативны и увлекательны, а их члены привлекательны на званых обедах и на телевидении. Но их крайние убеждения не должны определять будущее законов и общества - очевидно, что нет.
 
Риск ИИ №2: Разрушит ли ИИ наше общество?
 
Второй широко обсуждаемый риск ИИ заключается в том, что ИИ разрушит наше общество, генерируя результаты, которые будут настолько "вредными", если использовать номенклатуру этого вида дум, что нанесут глубокий ущерб человечеству, даже если мы не будем буквально убиты.
 
Краткая версия: Если нас не убьют роботы-убийцы, то это сделают язык ненависти и дезинформация.
 
Это относительно недавняя озабоченность думеров, которая отпочковалась от движения "риск ИИ", описанного мною выше, и в некоторой степени переняла его. На самом деле, терминология риска ИИ недавно изменилась с "безопасности ИИ" - термина, используемого людьми, которые обеспокоены тем, что ИИ буквально убьет нас - на "выравнивание ИИ" - термин, используемый людьми, которые обеспокоены "вредом" для общества. Изначальные сторонники безопасности ИИ разочарованы этим сдвигом, хотя и не знают, как вернуть все на свои места - теперь они выступают за то, чтобы переименовать актуальную тему риска ИИ в "ИИ некиллеверонеизм", что пока не получило широкого распространения, но, по крайней мере, понятно.
 
Подсказкой к природе утверждения об общественном риске ИИ является его собственный термин "выравнивание ИИ". Выравнивание с чем? Человеческие ценности. Чьим человеческим ценностям? Вот тут-то все и становится запутанным.
 
Так получилось, что я в первом ряду наблюдал аналогичную ситуацию - войну за "доверие и безопасность" в социальных сетях. Как теперь очевидно, службы социальных сетей уже много лет находятся под мощным давлением со стороны правительств и активистов с целью запрета, ограничения, цензуры и иного подавления широкого спектра контента. И те же проблемы "языка вражды" (и его математического аналога, "алгоритмической предвзятости") и "дезинформации" напрямую переносятся из контекста социальных сетей на новую границу "выравнивания ИИ". 
 
Мои основные выводы из войн в социальных сетях таковы:
 
С одной стороны, не существует абсолютной позиции свободы слова. Во-первых, каждая страна, включая США, делает незаконным по крайней мере некоторый контент. Во-вторых, есть определенные виды контента, такие как детская порнография и подстрекательство к насилию в реальном мире, которые практически во всех обществах считаются запрещенными - законными или нет. Поэтому любая технологическая платформа, способствующая созданию или генерирующая контент - речь - будет иметь некоторые ограничения.
 
С другой стороны, скользкая дорожка - это не заблуждение, а неизбежность. Как только будет создана основа для ограничения даже вопиюще ужасного контента - например, для языка вражды, конкретного обидного слова или для дезинформации, явно ложных утверждений типа "Папа умер" - шокирующе широкий круг правительственных агентств, активистских групп давления и неправительственных организаций начнет действовать и требовать все более высоких уровней цензуры и подавления любой речи, которую они считают угрожающей обществу и/или их личным предпочтениям. Они будут делать это вплоть до способов, которые являются откровенно уголовными преступлениями. Этот цикл на практике может продолжаться, по-видимому, вечно, при восторженной поддержке авторитарных наблюдателей, установленных во всех наших элитных властных структурах. Это происходит в социальных сетях уже десятилетие и, за некоторыми исключениями, продолжает становиться все более яростным.
 
Именно такая динамика сформировалась сейчас вокруг "выравнивания ИИ". Его сторонники утверждают, что мудрость заключается в том, чтобы разрабатывать речь и мысли, генерируемые ИИ, которые полезны для общества, и запрещать речь и мысли, генерируемые ИИ, которые вредны для общества. Его противники утверждают, что "полиция мысли" поразительно самонадеянна и самонадеянна, а зачастую и откровенно преступна, по крайней мере, в США, и на самом деле стремится стать новым видом сросшейся правительственно-корпоративно-академической авторитарной речевой диктатуры, взятой прямо со страниц "1984" Джорджа Оруэлла.
 
Поскольку сторонники "доверия и безопасности" и "выравнивания ИИ" сгруппированы в очень узком сегменте населения планеты, который характеризует американскую прибрежную элиту - в том числе многие из тех, кто работает в технологической индустрии и пишет о ней - многие из моих читателей найдут себя готовыми утверждать, что для того, чтобы избежать разрушения общества, необходимы резкие ограничения на выход ИИ. Я не буду сейчас пытаться отговорить вас от этого, я просто скажу, что такова природа спроса, и что большинство людей в мире не согласны с вашей идеологией и не хотят видеть вашу победу.
 
Если вы не согласны с преобладающей нишевой моралью, которая навязывается как социальным медиа, так и ИИ посредством постоянно усиливающихся речевых кодексов, вы также должны понимать, что борьба за то, что ИИ разрешено говорить/генерировать, будет даже более важной - намного более важной - чем борьба за цензуру в социальных медиа. ИИ, скорее всего, станет управляющим слоем для всего на свете. То, как ему будет позволено работать, будет иметь значение, возможно, большее, чем что-либо другое. Вы должны знать о том, как небольшая и изолированная группа пристрастных социальных инженеров пытается определить это прямо сейчас, прикрываясь извечным утверждением, что они защищают вас.
 
Короче говоря, не позволяйте полиции мысли подавлять ИИ.
 
 
 
Риск ИИ #3: Заберет ли ИИ все наши рабочие места?
 
Страх потери работы в результате механизации, автоматизации, компьютеризации или ИИ является повторяющейся паникой на протяжении сотен лет, с момента появления первых машин, таких как механический ткацкий станок. Несмотря на то, что каждая новая крупная технология на протяжении всей истории приводила к увеличению количества рабочих мест при более высокой заработной плате, каждая волна этой паники сопровождалась заявлениями о том, что "в этот раз все будет по-другому" - именно в этот раз это наконец-то произойдет, именно эта технология нанесет окончательный удар молотом по человеческому труду. И тем не менее, этого никогда не происходит. 
 
В недавнем прошлом мы пережили два таких технологических цикла паники безработицы - панику аутсорсинга в 2000-х годах и панику автоматизации в 2010-х годах. Несмотря на то, что на протяжении обоих десятилетий многие говорящие головы, эксперты и даже руководители технологической индустрии твердили, что массовая безработица близка, к концу 2019 года - прямо перед началом COVID - в мире было больше рабочих мест с более высокими зарплатами, чем когда-либо в истории.
 
Тем не менее, эта ошибочная идея не умирает.
 
И, конечно, она возвращается.
 
На этот раз у нас наконец-то появилась технология, которая займет все рабочие места и сделает человека ненужным - настоящий искусственный интеллект. Конечно, на этот раз история не повторится, и ИИ вызовет массовую безработицу, а не быстрый рост экономики, рабочих мест и зарплат, верно?
 
Нет, этого не произойдет, и на самом деле ИИ, если ему позволить развиваться и распространяться по всей экономике, может вызвать самый резкий и продолжительный экономический бум всех времен, с соответствующим рекордным ростом рабочих мест и заработной платы - прямо противоположное опасениям. И вот почему.
 
Основная ошибка, которую продолжают совершать сторонники автоматизации, убивающей рабочие места, называется заблуждением о куске труда. Это заблуждение - неверное представление о том, что в экономике в любой момент времени существует фиксированное количество труда, который необходимо выполнить, и либо это делают машины, либо люди - и если это делают машины, то людям нечем будет заняться.
 
Ошибка "куска труда" естественно вытекает из наивной интуиции, но наивная интуиция здесь ошибочна. Когда технология применяется в производстве, мы получаем рост производительности - увеличение выпуска продукции за счет сокращения затрат. Результатом этого является снижение цен на товары и услуги. Поскольку цены на товары и услуги падают, мы платим за них меньше, а это значит, что у нас появляется дополнительная способность тратить деньги на покупку других вещей. Это увеличивает спрос в экономике, что стимулирует создание новых производств, включая новые продукты и новые отрасли, которые затем создают новые рабочие места для людей, которых машины заменили на прежних рабочих местах. В результате экономика становится более крупной, с более высоким материальным благосостоянием, большим количеством отраслей, большим количеством товаров и большим количеством рабочих мест.
 
Но на этом хорошие новости не заканчиваются. Мы также получаем более высокую заработную плату. Это происходит потому, что на уровне отдельного работника рынок устанавливает вознаграждение в зависимости от предельной производительности труда работника. Работник, занятый в бизнесе с использованием технологий, будет более производительным, чем работник в традиционном бизнесе. Работодатель либо заплатит этому работнику больше денег, поскольку он теперь более производителен, либо это сделает другой работодатель, чисто из собственных интересов. В результате технология, внедренная в отрасль, как правило, не только увеличивает количество рабочих мест в отрасли, но и повышает заработную плату.
 
Подводя итог, можно сказать, что технология дает людям возможность быть более продуктивными. Это приводит к снижению цен на существующие товары и услуги и росту заработной платы. Это, в свою очередь, вызывает экономический рост и рост числа рабочих мест, мотивируя создание новых рабочих мест и новых отраслей. Если позволить рыночной экономике нормально функционировать и позволить технологиям свободно внедряться, то это будет вечный восходящий цикл, который никогда не закончится. Ведь, как заметил Милтон Фридман, "человеческие желания и потребности бесконечны" - мы всегда хотим больше, чем имеем. Рыночная экономика, основанная на технологиях, - это способ приблизиться к тому, чтобы обеспечить всех желающих всем необходимым, но никогда не дойти до конца. И именно поэтому технологии не уничтожают рабочие места и никогда не уничтожат.
 
Эти идеи настолько умопомрачительны для людей, которые с ними не сталкивались, что вам может понадобиться некоторое время, чтобы понять их. Но клянусь, я их не выдумал - на самом деле вы можете прочитать о них в стандартных учебниках по экономике. Я рекомендую главу "Проклятие машин" в книге Генри Хэзлитта "Экономика в одном уроке", а также сатирическую "Петицию свечного мастера" Фредерика Бастиа об уничтожении солнца из-за его нечестной конкуренции с осветительной промышленностью, переделанную для нашего времени.
 
Но в этот раз все по-другому, думаете вы. На этот раз, благодаря искусственному интеллекту, у нас есть технология, которая может заменить ВЕСЬ человеческий труд.
 
Но, используя принципы, которые я описал выше, подумайте, что бы это значило, если бы буквально весь существующий человеческий труд был заменен машинами.
 
Это означало бы взлет темпов роста экономической производительности, который был бы абсолютно стратосферным, намного превышающим все исторические прецеденты. Цены на существующие товары и услуги упадут практически до нуля. Благосостояние потребителей резко возрастет. Расходная способность потребителей резко возрастет. Новый спрос в экономике взорвется. Предприниматели создадут головокружительные массивы новых отраслей, продуктов и услуг и наймут столько людей и искусственного интеллекта, сколько смогут, чтобы как можно быстрее удовлетворить весь новый спрос.
 
Предположим, что ИИ снова заменит этот труд? Цикл повторится, повышая благосостояние потребителей, экономический рост, рост рабочих мест и заработной платы. Это будет прямая спираль к материальной утопии, о которой не смели мечтать ни Адам Смит, ни Карл Маркс. 
 
Нам должно повезти.
 
Риск ИИ №4: приведет ли ИИ к катастрофическому неравенству?
 
Говоря о Карле Марксе, беспокойство по поводу того, что ИИ отнимет рабочие места, переходит непосредственно к следующему заявленному риску ИИ, который звучит так: "Хорошо, Марк, предположим, что ИИ действительно отнимет все рабочие места, плохо это или хорошо. Не приведет ли это к огромному и разрушительному неравенству в благосостоянии, поскольку владельцы ИИ будут пожинать все экономические плоды, а обычные люди не получат ничего?
 
Так получилось, что это было главным утверждением марксизма, что владельцы средств производства - буржуазия - неизбежно украдут все общественное богатство у людей, которые выполняют реальную работу - пролетариата. Это еще одно заблуждение, которое просто не умрет, как бы часто его ни опровергала реальность. Но давайте все же вобьем кол в его сердце.
 
Изъян этой теории заключается в том, что, будучи владельцем технологии, не в ваших интересах держать ее при себе - скорее наоборот, в ваших интересах продать ее как можно большему числу покупателей. Самый большой рынок в мире для любого продукта - это весь мир, все 8 миллиардов человек. И поэтому в реальности каждая новая технология - даже та, которая начинает продаваться в разреженном воздухе высокооплачиваемых крупных компаний или богатых потребителей - быстро распространяется, пока не попадает в руки максимально возможного массового рынка, в конечном счете, каждого человека на планете.
 
Классическим примером этого является так называемый "секретный план" Элона Маска - который он, естественно, опубликовал открыто - для компании Tesla в 2006 году:
 
Шаг 1. Построить [дорогой] спортивный автомобиль
 
Шаг 2. Использовать эти деньги для создания доступного автомобиля
 
Шаг 3. Использовать эти деньги для создания еще более доступного автомобиля.
 
...что он, конечно, и сделал, став в результате самым богатым человеком в мире.
 
Последний пункт является ключевым. Стал бы Элон еще богаче, если бы сегодня продавал автомобили только богатым людям? Нет. Был бы он еще богаче, если бы производил автомобили только для себя? Конечно, нет. Нет, он максимизирует собственную прибыль, продавая на самый большой возможный рынок - всему миру.
 
Короче говоря, каждый получит эту вещь - как мы видели в прошлом не только с автомобилями, но и с электричеством, радио, компьютерами, Интернетом, мобильными телефонами и поисковыми системами. Производители таких технологий крайне заинтересованы в снижении цен на них до тех пор, пока их не сможет позволить себе каждый житель планеты. Именно это уже происходит в искусственном интеллекте - именно поэтому вы можете использовать современный генеративный искусственный интеллект не только по низкой цене, но даже бесплатно сегодня в виде Microsoft Bing и Google Bard - и именно это будет происходить и дальше. Не потому, что такие поставщики глупы или щедры, а именно потому, что они жадны - они хотят максимизировать размер своего рынка, что максимизирует их прибыль.
 
Таким образом, происходит обратное тому, что технология приводит к централизации богатства - индивидуальные потребители технологии, в конечном счете, включая каждого жителя планеты, получают больше возможностей и захватывают большую часть генерируемой стоимости. Как и в случае с предыдущими технологиями, компании, создающие ИИ - предполагается, что они должны функционировать на свободном рынке - будут яростно конкурировать, чтобы это произошло.
 
Маркс был неправ тогда, и он неправ сейчас.
 
Это не значит, что неравенство не является проблемой нашего общества. Оно есть, просто оно не обусловлено технологиями, а наоборот, обусловлено теми секторами экономики, которые наиболее устойчивы к новым технологиям, в которых наблюдается наибольшее вмешательство государства, препятствующее внедрению новых технологий, таких как ИИ - в частности, жилищное строительство, образование и здравоохранение. Фактический риск ИИ и неравенства заключается не в том, что ИИ вызовет большее неравенство, а в том, что мы не позволим использовать ИИ для снижения неравенства.
 
Риск ИИ № 5: приведет ли ИИ к тому, что плохие люди будут совершать плохие поступки?
 
До сих пор я объяснял, почему четыре из пяти наиболее часто предлагаемых рисков ИИ не являются реальными - ИИ не оживет и не убьет нас, ИИ не разрушит наше общество, ИИ не приведет к массовой безработице и ИИ не вызовет губительного роста неравенства. Но теперь давайте обратимся к пятому пункту, с которым я фактически согласен: ИИ облегчит плохим людям совершать плохие поступки.
 
В некотором смысле это тавтология. Технология - это инструмент. Инструменты, начиная с огня и камней, могут использоваться для хороших дел - приготовления пищи и строительства домов - и для плохих дел - сжигания людей и нанесения им ударов. Любая технология может быть использована как во благо, так и во вред. Справедливо. И ИИ облегчит преступникам, террористам и враждебным правительствам совершать плохие поступки, без сомнения.
 
Это заставляет некоторых людей предлагать: ну, в таком случае, давайте не будем рисковать, давайте запретим ИИ сейчас, пока этого не произошло. К сожалению, ИИ - это не какой-то эзотерический физический материал, который трудно достать, как плутоний. Наоборот, это самый простой материал в мире - математика и код.
 
Очевидно, что кот ИИ уже вылез из мешка. Вы можете узнать, как создать ИИ, из тысяч бесплатных онлайн-курсов, книг, статей и видео, а выдающиеся реализации с открытым исходным кодом множатся с каждым днем. ИИ подобен воздуху - он будет повсюду. Уровень тоталитарного угнетения, который потребуется для того, чтобы остановить это, будет настолько драконовским - мировое правительство, контролирующее и управляющее всеми компьютерами? головорезы в черных вертолетах, захватывающие неавторизованные графические процессоры? - что у нас не осталось бы общества, которое можно было бы защитить.
 
Поэтому есть два очень простых способа борьбы с риском того, что плохие люди будут делать плохие вещи с помощью ИИ, и именно на них мы должны сосредоточиться.
 
Во-первых, у нас есть законы, предусматривающие уголовную ответственность за большинство плохих вещей, которые кто-либо собирается совершить с помощью ИИ. Взломать Пентагон? Это преступление. Украсть деньги из банка? Это преступление. Создать биооружие? Это преступление. Совершить террористический акт? Это преступление. Мы можем просто сосредоточиться на предотвращении этих преступлений, когда мы можем, и на их преследовании, когда мы не можем. Нам даже не нужны новые законы - я не знаю ни одного фактического плохого применения ИИ, которое было бы предложено и которое уже не было бы незаконным. И если будет выявлено новое плохое применение, мы запретим это применение. 
 
Но вы заметите, что я там проскользнул - я сказал, что мы должны сосредоточиться на предотвращении преступлений с помощью ИИ до того, как они произойдут - разве такое предотвращение не означает запрет ИИ? Ну, есть и другой способ предотвратить такие действия, и это использование ИИ в качестве оборонительного инструмента. Те же возможности, которые делают ИИ опасным в руках плохих парней с плохими целями, делают его мощным в руках хороших парней с хорошими целями - в частности, хороших парней, чья работа заключается в том, чтобы предотвращать плохие вещи.
 
Например, если вы обеспокоены тем, что ИИ генерирует фальшивых людей и фальшивые видео, ответ заключается в создании новых систем, в которых люди могут подтвердить себя и реальный контент с помощью криптографических подписей. Цифровое создание и изменение как реального, так и поддельного контента уже было здесь до появления ИИ; ответ заключается не в запрете текстовых процессоров и Photoshop - или ИИ - а в использовании технологий для создания системы, которая действительно решает проблему.
 
И поэтому, во-вторых, давайте приложим большие усилия для использования ИИ в хороших, законных, оборонительных целях. Давайте применим ИИ в киберзащите, в биологической защите, в охоте на террористов и во всем остальном, что мы делаем для обеспечения безопасности себя, своих сообществ и своей страны.
 
Конечно, в правительстве и вне его уже есть много умных людей, которые занимаются именно этим, но если мы приложим все усилия и мозговые силы, которые сейчас сосредоточены на бесполезной перспективе запрета ИИ, к использованию ИИ для защиты от плохих людей, совершающих плохие поступки, я думаю, нет никаких сомнений в том, что мир, наполненный ИИ, будет намного безопаснее, чем мир, в котором мы живем сегодня.
 
Реальный риск, если не преследовать ИИ с максимальной силой и скоростью

Существует последний, реальный риск, связанный с ИИ, который, вероятно, является самым страшным:
 
ИИ разрабатывается не только в относительно свободных обществах Запада, его также разрабатывает Коммунистическая партия Китайской Народной Республики.
 
Китай имеет совершенно иное видение ИИ, чем мы - они рассматривают его как механизм авторитарного контроля над населением. Они даже не скрывают этого, они говорят об этом очень ясно, и они уже преследуют свои цели. И они не собираются ограничивать свою стратегию ИИ только Китаем - они намерены распространить его по всему миру, везде, где они питают сети 5G, везде, где они дают деньги на "Пояс и путь", везде, где они предоставляют дружественные потребительские приложения, такие как Tiktok, которые служат передним краем для их централизованного командования и управления ИИ.
 
Самый большой риск ИИ заключается в том, что Китай завоюет глобальное доминирование ИИ, а мы - США и Запад - нет.
 
Я предлагаю простую стратегию, что с этим делать - фактически, ту же стратегию, которую использовал президент Рональд Рейган для победы в первой холодной войне с Советским Союзом.
 
"Мы выиграем, они проиграют".
 
Вместо того, чтобы позволить беспочвенной панике вокруг ИИ-убийцы, "вредного" ИИ, ИИ, разрушающего рабочие места, и ИИ, порождающего неравенство, поставить нас на ноги, мы в США и на Западе должны упереться в ИИ изо всех сил.
 
Мы должны стремиться выиграть гонку за глобальное технологическое превосходство ИИ и сделать так, чтобы Китай этого не сделал.
 
При этом мы должны внедрять ИИ в нашу экономику и общество так быстро и так сильно, как только возможно, чтобы максимизировать его преимущества для экономической производительности и человеческого потенциала.
 
Это лучший способ компенсировать реальные риски ИИ и гарантировать, что наш образ жизни не будет вытеснен гораздо более мрачным китайским видением.
 
Что нужно сделать?
 
Я предлагаю простой план:
 
Большим ИИ-компаниям следует позволить создавать ИИ так быстро и агрессивно, как они могут - но не позволять им добиваться захвата регуляторов, не позволять создавать охраняемый государством картель, изолированный от рыночной конкуренции из-за неверных заявлений о рисках ИИ. Это позволит максимизировать технологическую и общественную отдачу от удивительных возможностей этих компаний, которые являются жемчужинами современного капитализма.
 
Начинающим ИИ-компаниям должно быть позволено создавать ИИ так быстро и агрессивно, как они могут. Они не должны сталкиваться с государственной защитой крупных компаний или получать государственную помощь. Им следует просто позволить конкурировать. Если стартапы не преуспеют, то их присутствие на рынке будет постоянно мотивировать крупные компании быть лучшими - наши экономики и общества выиграют в любом случае.
 
ИИ с открытым исходным кодом должен свободно распространяться и конкурировать как с крупными ИИ-компаниями, так и со стартапами. Для открытого кода не должно быть никаких нормативных барьеров. Даже если открытый исходный код не побеждает компании, его широкая доступность является благом для студентов по всему миру, которые хотят научиться создавать и использовать ИИ, чтобы стать частью технологического будущего, и обеспечит доступность ИИ для всех, кто может извлечь из него пользу, независимо от того, кто они и сколько у них денег.
 
Чтобы нивелировать риск того, что плохие люди будут делать плохие вещи с помощью ИИ, правительства, работающие в партнерстве с частным сектором, должны активно работать в каждой области потенциального риска, чтобы использовать ИИ для максимального повышения обороноспособности общества. Это не должно ограничиваться только рисками, связанными с ИИ, но и более общими проблемами, такими как недоедание, болезни и климат. ИИ может стать невероятно мощным инструментом для решения проблем, и мы должны принять его как таковой.
 
Чтобы предотвратить риск достижения Китаем глобального доминирования ИИ, мы должны использовать всю мощь нашего частного сектора, нашего научного учреждения и наших правительств, чтобы привести американский и западный ИИ к абсолютному глобальному доминированию, в том числе, в конечном итоге, в самом Китае. Мы выиграем, они проиграют. Именно так мы используем ИИ для спасения мира. Пришло время строить.
 
Легенды и герои
 
В заключение я хочу сказать два простых утверждения.
 
Развитие ИИ началось в 1940-х годах, одновременно с изобретением компьютера. Первая научная статья о нейронных сетях - архитектуре ИИ, которую мы имеем сегодня, - была опубликована в 1943 году. Целые поколения ученых в области ИИ за последние 80 лет родились, учились, работали и во многих случаях ушли из жизни, не увидев той отдачи, которую мы получаем сейчас. Все они - легенды.
 
Сегодня растущие легионы инженеров - многие из которых молоды и, возможно, имеют дедушек и бабушек или даже прадедушек, участвовавших в создании идей, лежащих в основе ИИ, - работают над тем, чтобы сделать ИИ реальностью, вопреки стене страха и дум, которые пытаются представить их как безрассудных злодеев. Я не считаю их безрассудными или злодеями. Они герои, каждый из них. Моя фирма и я рады поддержать как можно больше из них, и мы будем на 100% поддерживать их и их работу".
 

«Мне казалось смешным переживать из-за того, правильно ли ты написал что-то или нет, потому что английское правописание — это не более чем человеческая условность, которая никак не связана с чем-то реальным, с чем-то, что относится к природе. Любое слово можно написать по-другому, отчего оно не станет хуже»

Ричард Фейнман

Научный подход на Google Play

Файлы

Рассвет Сингулярности

Краткая история времени

Наука и религия

Происхождение человека и половой отбор