ИИ может нанести вред разными способами. Просто не так, как утверждают люди, поднимающие об этом шум.

Присоединяйтесь к 30 000+ читателей моего бесплатного информационного бюллетеня по искусственному интеллекту здесь

К этому моменту вы все слышали о гигантской паузе ИИ. Институт будущего жизни призвал все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. Обоснование их простое: модели ИИ становятся все более и более мощными. Если мы не будем их регулировать должным образом, кто-то создаст мощную модель без ограждений, которая нанесет много вреда. Так что приостановите разработку больших LLM, дайте регуляторам догнать их (потому что политики ясно понимают ИИ достаточно, чтобы регулировать его), а затем приступайте к ИИ, который не убьет нас всех в какой-нибудь терминаторской антиутопии.

Мы тонем в информации, но жаждем знаний.

– Цитата, очень соответствующая ситуации

В этой статье я рассмотрю следующие моменты:

  1. Как ИИ на самом деле причиняет вред.
  2. Почему Открытое письмо похоже на нанесение макияжа обезьяне, потому что вы не можете встречаться с Мэрилин Монро. Он не решает фундаментальные проблемы, вместо этого сосредотачиваясь на косметике.
  3. Почему это письмо причиняет больше вреда, чем модели, которые оно призвано остановить.

Должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мыавтоматизировать все задания, в том числе выполняющие? Должны ли мыразвивать нечеловеческие разумы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устареть и заменить нас? Должны ли мырискнуть потерять контроль над нашей цивилизацией? Такие решения нельзя делегировать неизбранным техническим лидерам.

-Это цитата из письма. Очень пафосно. Последняя строка (выделенная жирным шрифтом) имеет несколько… очень интересных подтекстов.

Как ИИ на самом деле причиняет вред

Возможности модели ИИ — не единственный фактор, причиняющий вред. Часто это даже не самый важный аспект в уравнении. Когда ИИ применяется неправильно (злоумышленно или непреднамеренно), необходимо решить другие важные проблемы, а не только базовые возможности модели.

Когда дело доходит до вреда от ИИ, мы слишком много верим ИИ и его сверхразуму, а не человеческой глупости.

-Дисплей этого раздела

Большая часть вреда, причиняемого ИИ, вызвана неправильным применением технологий в областях, которым они не принадлежат. Возьмите случай с недавним профессором, которого ChatGPT ложно назвал в списке профессоров, совершивших сексуальные домогательства. . ChatGPT создал фейковый сценарий и в результате процитировал фейковую статью. При этом неблагоприятных последствий для профессора не было. Вместо этого давайте предположим, что кто-то принял вывод за правду и начал кампанию за отстранение этого профессора. В нашем сценарии, кто действительно причинил вред — ChatGPT или человек, который бездумно поверил ChatGPT и не удосужился ничего проверить, даже когда общеизвестно, что ChatGPT выдумывает?

У этих моделей есть недостатки. Я потратил много времени на критику ажиотажа вокруг них, когда люди выдают их за всемогущее решение всего, чего только можно пожелать (в ИИ-случайных лесах есть только одна настоящая серебряная пуля). Однако также важно не качнуться в другую сторону, не считать их катализатором массовой гибели общества, когда мы все сидим без дела, а злой ИИ выполняет всю нашу работу. Этот вид думеризма так же плох, как и хайп-братши на другой крайности.

Один из моих любимых критических замечаний в отношении ИИ-думеризма и письма ИИ взят из проницательного информационного бюллетеня AI Snake Oil. В своей проницательной статье Вводящее в заблуждение открытое письмо об опасностях научно-фантастического ИИ игнорирует реальные риски они очень справедливо указали, что письмо и его сторонники уводят разговор в сторону от проблем. Взгляните на их заявление -

Мы согласны с тем, что дезинформация, влияние на труд и безопасность являются тремя основными рисками ИИ. К сожалению, в каждом случае письмо представляет собой спекулятивный, футуристический риск, игнорируя ту версию проблемы, которая уже наносит вред людям.

У них также была фантастическая матрица, чтобы кратко обобщить разницу между реальными рисками и тем, что беспокоило Думеров.

Их анализ совпадает с нашим примером ранее. Вред, причиняемый моделями. Вред причиняет не образец, а тот, кто относится к ним как к Евангелию и использует их, не оценивая. И это неправильное применение ИИ встречается чаще, чем вы думаете. И это не проблема, возникающая исключительно у моделей такой мощности, как GPT-4. Люди живут по философии «Обезьяна-видит-обезьяна-делает». Люди бегут за технологиями и идеями, которые модны и привлекают внимание, не задумываясь о том, будут ли эти идеи применимы в конкретном контексте. Вот пример из моего собственного опыта.

Как некоторые из вас, возможно, знают, я начал заниматься искусственным интеллектом в 2017 году. Я был частью группы из трех человек, которые создали новый алгоритм для обнаружения болезни Паркисона с использованием образцов голоса. Это было сделано другими (многие с большей точностью, чем наша), но наша реализация вызвала особый интерес и в конечном итоге была даже лицензирована и монетизирована по одной простой причине: наш алгоритм был очень устойчив к фоновому шуму, плохому сигналу, и возмущения. Наш секрет: мы избегали многих стандартных методов, которые использовали другие (включая глубокое обучение). В лаборатории эти методы подняли показатели точности выше, чем у нас. Но они были слишком хрупкими, чтобы их можно было использовать в реальной жизни. Слишком многие совершают ошибку, влюбляясь в определенную модель, архитектуру или способ ведения дел и слепо используя их. Мы наблюдаем это с ChatGPT и LLM прямо сейчас, но это было проблемой некоторое время.

Склонность людей применять ИИ и его результаты без критического мышления более вредна, чем любой конкретный тип ИИ.

Для более глобального примера Monkey See Monkey Do, позвольте мне представить вам Crypto Crash 2022 года и то, как он был вызван тем, что презентация превзошла содержание.

Давайте рассмотрим один из наиболее часто встречающихся примеров того, как эти генеративные модели могут причинить вред, который действительно имеет некоторые достоинства, — индивидуализированную пропаганду/дезинформацию.

ИИ и вооруженная дезинформация

Люди обеспокоены тем, что люди могут использовать ИИ для нацеливания на определенные уязвимые демографические группы, а затем использовать мощные модели для создания контента, который заведет их в кроличью нору экстремизма. Используя Генеративный ИИ, группы смогут производить много контента, чтобы зацепить людей своей идеологией. Индоктринация в социальных сетях — вполне реальное явление. Генеративный ИИ может усугубить ситуацию, заполнив ленту меток их повесткой дня.

поскольку они такие гибкие и могут быть либо умными, либо глупыми, в зависимости от того, насколько умело их проинструктировали.

– Идеальная цитата, которую можно использовать для описания ИИ, которой поделился

Мелани Митчелл из AI: A Guide for Thinking Humans

В этом вопросе я согласен — это проблема, которую мощный генеративный ИИ усугубит. Однако призывы приостановить разработку LLM мало что делают для борьбы с этим. По очень простой причине генеративные модели машинного обучения являются в этой ситуации второстепенным персонажем. Прочитайте это еще раз. Когда дело доходит до нашего плюющего на пропаганду ИИ, у нас есть два больших злодея-босса, с которыми гораздо важнее иметь дело...

  1. Алгоритмы профилирования, используемые для обнаружения целей. Любой, кто имеет опыт работы с рекомендательными системами или другими задачами, связанными с профилированием клиентов, скажет вам, что для создания персоны нужно гораздо больше, чем простой текст. Даже в Clientell, где мы в основном используем общение на естественном языке (электронная почта и голос) для создания персон потенциальных клиентов, у нас есть несколько видов данных — от таблиц до специальных кодировок для создания конечной персоны. Персонаж создается не из одной гигантской модели, а из взаимодействия нескольких более мелких моделей, которые нацелены на различные функции, которые нейронные сети также не выполняют. Кроме того, алгоритмы профилирования, используемые в социальных сетях, появились еще до LLM и уже продемонстрировали свою опасность в этой области. Остановка новых «мощных» моделей не решает эту проблему. Это надо решать в первую очередь.
  2. Экстремизм в социальных сетях — это социальная проблема. Называя идеологическую обработку/дезинформацию проблемой ИИ, мы упускаем из виду другую ключевую проблему: корни идеологической обработки уходят глубже, чем ИИ. Основные средства массовой информации поляризуют людей дольше, чем я живу. Экстремисты со всех сторон всегда наживались на нормальных людях. Мужчины более склонны к суициду, чем когда-либо, Instagram вызвал дисморфию тела у многих молодых девушек и т. д. и т. д.. Я посещал школы в 3 разных странах (Индия, Сингапур и США). Все места, где я был, были высоко оцененными учебными заведениями. Ни один из них не научил меня, как справляться с желанием гоняться за одобрением в социальных сетях, как распознавать шарлатанов и как мыслить критически. Теперь я достиг просветления в утробе матери, поэтому для меня это не было большой потерей, а вот другим повезло меньше. Когда я написал о том, что влиятельные люди продают плохие продукты ИИ в Интернете, 5 разных людей связались со мной и рассказали, как их обманул какой-то влиятельный человек в социальных сетях. Coffeezilla построил свой бренд, разоблачая мошенников, которые обманывали всех, включая образованных профессионалов.

Да, более мощный ИИ будет производить более вредную пропаганду/дезинформацию. И да, это будет качать больше людей. Я не отрицаю этого. Я просто указываю, что даже если бы мы создали идеальное регулирование, чтобы не дать новым моделям ИИ создавать дезинформацию и пропаганду, основные проблемы выходят далеко за рамки. Внимание и ресурсы ограничены. Нам нужно сосредоточить их внимание на основных проблемах, а не зацикливаться на ажиотаже.

Я хорошо помню фильм 2014 года. Предполагалось, что 80-процентный уровень безработицы будет не за горами. Если машины могут победить людей в Jeopardy, то кому еще понадобится человек-врач?
Франсуа Шолле, создатель Keras и старший инженер-программист Google, описывает подобный ИИ заменит всю шумиху в 2014 году. »

Надеюсь, я продемонстрировал, что призыв остановить ИИ на самом деле не решит реальных проблем, когда речь идет о вреде ИИ. Теперь я собираюсь перейти к последнему пункту — почему Открытое письмо вызывает больше проблем в ИИ, чем модели.

Общество зрелищ

В 1960-х годах французский философ Ги Дебор написал, возможно, одно из самых точных предсказаний современного мира — «Общество зрелищ». В нем Дебор критикует то, как мир, в котором доминируют реклама и потребительство, больше заботится о зрелищности события, чем о самом событии. Другими словами, упаковка становится продуктом, а эстетика важнее функции. Глядя на состояние современного мира, трудно не согласиться. Учитывая распространенность IG Filters и фальшивого образа жизни, трудно не согласиться.

Это проявляется в ситуации с открытым письмом ИИ. Взгляните на самые настоящие социальные проблемы, которые ИИ вызывает и вызовет в будущем. Среди них были некоторые ужасные последствия, такие как расовая дискриминация, крайнее разделение на категории, повышенная изоляция и многое другое.

Многое из этого заметно отсутствует в Открытом письме. Вместо этого он фокусируется на научно-фантастических опасностях, связанных с тем, что ИИ, автоматизирующий все работы (даже выполняющие те, которые выполняются 😢😢), вырывается у нас и ИИ становится умнее нас. У регулирующих органов были годы, чтобы разработать политику, основанную на очень реальной дискриминации, вызванной ИИ, но они сделали очень мало.

Письмо в значительной степени основано на страхе и сенсационности для получения подписей, попадая в сценарий гуру искусственного интеллекта New Age, которые продают 30 продуктов в неделю, утверждая, что вы отстанете, если не используете ИИ. Если вы не «используете» ИИ, ваша фирма обанкротится, вы потеряете волосы, а ваши дети начнут бить своих бабушек, потеряв из виду мораль. Сенсационность этого письма мутит воду, делает обсуждение темы неясным и в конечном итоге создает сценарий, в котором злоумышленники могут использовать шум для эксплуатации людей. Это письмо было для AI тем же, чем этот профиль Sequoia был для SBF и Crypto Scam.

Никогда не забывайте, что это было вещью. Smart Money и Mainstream Media провозгласили SBF спасителем, который будет бороться с коррумпированной системой.

Как и разговор о Crypto и FTX, это письмо добавляет много шума в поле, причем очень существенного. Трудно воспринимать это всерьез, когда в письме основное внимание уделяется таким знаменитостям, как Эндрю Ян, Илон Маск и Харрари, а не легендам искусственного интеллекта, таким как Эндрю Нг и Янн ЛеКун (которые оба назвали это плохой идеей) — еще одно сходство с криптоманией. которая использовала финансовых влиятельных лиц для выхода на рынок, даже несмотря на то, что эксперты предостерегали от этого.

Хотя идея приостановки экспериментов с ИИ может показаться правдоподобной стратегией снижения вреда, которую необходимо реализовать до официального регулирования, контекст открытого письма вызывает некоторые вопросы. Во-первых, и, возможно, это наиболее показательно, некоторые из наиболее заметных лиц, подписавших письмо, представляют технологические компании, которые отстали от графика развития ИИ. Таким образом, призыв к паузе больше читается как попытка выиграть время и ускорить их развитие. собственные усилия по разработке ИИ, а не искренняя забота о разработке и внедрении руководящих принципов, направленных на минимизацию потенциального вреда ИИ.
— Исследователь ИИ Себастьян Рашка поднимает некоторые обоснованные замечания о конфликте интересов многих соподписантов, подписывающих соглашение. письмо.

Страх — мощный маркетинговый инструмент, и письмо до сих пор использовалось именно в этом качестве. Безопасный ИИ обязателен, но 6-месячный запрет не решает основных проблем, которые делают ИИ небезопасным. Это больше похоже на попытку замедлить развитие событий, сосредоточить власть над ИИ в руках определенных групп и заставить обычных людей бояться этой пугающей новой вещи, от которой мы должны быть защищены.

Если этот последний фрагмент звучит для вас немного как шляпа из фольги, вот опыт одного человека, чья жизнь была разрушена думеризмом:

Короче говоря, чуть более 2 лет назад я листал дум-скроллинг о сценариях, когда ИИ стал мошенником, читая менее неправильные статьи о типичном аргументе со скрепкой; придет сверхразум, вы скажете ему «сделай меня счастливым» и бум, ИИ стимулирует ту часть вашего мозга, которая производит дофамин для вечности.

Это спровоцировало *неимоверную* паническую атаку, когда я практически отказался от жизни из-за страха перед каким-то мошенническим ИИ, который просто сохранит мне жизнь во веки веков. Каждый раз, когда я пытался противостоять своему страху, мысль о вечной жизни против моей воли переполняла меня. Я каким-то образом прошел школу, будучи почти парализованным 24/7 в течение всего года. Теперь, хотя мои симптомы тревоги остались прежними, и я не могу ходить в школу или почти ничего не делать, недавно ко мне вернулась надежда, что моя жизнь не должна заканчиваться здесь

-Подобно тому, как позитивный хайп разоряет людей, думеризм причиняет людям серьезный вред. Читать письмо полностью здесь

Если вам нравится то, что вы читаете, я сейчас на рынке труда. Мое резюме можно найти здесь. Краткий обзор моего набора навыков-

  • Инженер по машинному обучению. Я работал над различными задачами, такими как генеративный ИИ + обработка текста, моделирование глобальных цепочек поставок, оценка государственной политики (затрагивающей более 200 миллионов человек) и даже разработка алгоритма, который превзойдет Apple в обнаружении болезни Паркинсона.
  • AI Writer — более 30 тысяч подписчиков по электронной почте, более 2 миллионов показов в LinkedIn, более 600 тысяч читателей сообщений в блогах за 2022 год.

Если вы хотите поговорить подробнее, вы можете связаться со мной через мой LinkedIn здесь.

Это все для этого произведения. Я ценю ваше время. Как всегда, если вы хотите связаться со мной или ознакомиться с другими моими работами, ссылки будут в конце этого письма/сообщения. «Если вам нравится то, что я пишу, я был бы очень признателен за анонимный отзыв. Вы можете бросить его здесь. И если вы нашли ценность в этой статье, я был бы признателен, если бы вы поделились ею с большим количеством людей. Рекомендации из уст в уста, такие как ваши, помогают мне расти.

Свяжитесь со мной

Воспользуйтесь ссылками ниже, чтобы ознакомиться с другим моим контентом, узнать больше о репетиторстве, связаться со мной по поводу проектов или просто поздороваться.

Небольшие фрагменты о технологиях, искусственном интеллекте и машинном обучении здесь

Ознакомьтесь с другими моими статьями на Medium. : https://rb.gy/zn1aiu

Мой Ютуб: https://rb.gy/88iwdd

Свяжитесь со мной в LinkedIn. Подключаемся: https://rb.gy/m5ok2y

Мой Инстаграм: https://rb.gy/gmvuy9

Мой Твиттер: https://twitter.com/Machine01776819