Маск призывает ввести мораторий на разработку ИИ в качестве «носика»?

Фокус: ① Будьте внимательны к развитию ИИ и не допускайте выхода ИИ из-под контроля, что становится «политкорректностью» в области науки и техники во всем мире; ② Что касается строгого предотвращения самовымирания человека, то многие риски, такие как ядерная война, изменение климата, распространение смертоносных вирусов и злоупотребление биотехнологиями, должны стоять выше суперИИ; ③ИИ может привести к различным социальным рискам.Академический круг уже давно указывал на то, что также были выдвинуты различные контрмеры.Текущая проблема заключается в реализации мер управления ИИ в соответствии с национальными условиями, а не в приостановке исследований и разработок; ④ Если не будет общей политики, ChatGPT определенно приведет к большому количеству «безработных ИИ», что, в свою очередь, будет препятствовать дальнейшему применению ChatGPT.

Автор: Лю Юнмоу, профессор философского факультета Жэньминьского университета Китая, научный сотрудник Национальной академии развития и стратегии

В марте 2023 года тысячи экспертов, в том числе Илон Маск, совместно подписали открытое письмо с призывом ввести мораторий на обучение последующих моделей искусственного интеллекта (ИИ) GPT-4 не менее чем на 6 месяцев. Как только новость вышла, она взорвала глобальную сеть и СМИ и вскоре вызвала сопротивление Ву Энда и других «экспертов по ИИ». В конце концов, никакой дополнительной информации по этому поводу не было, а приостановка GPT-4 заподозрила волну хайпа со стороны OpenAI.

В апреле сообщалось, что Италия полностью запретит ChatGPT, в результате чего был наложен штраф.

В мае президент США Байден и вице-президент Харрис также присоединились к веселью и провели встречу с руководителями ведущих компаний в области искусственного интеллекта Alphabet, Microsoft, OpenAI и Anthropic, материнской компании Google, чтобы оказать давление на компании для внедрения меры безопасности в отношении искусственного интеллекта, заявив: «Поддержите новые правила или законы, чтобы смягчить потенциальный вред технологий ИИ».

«Маск и его девушка с искусственным интеллектом», созданные пользователями с помощью генеративных инструментов искусственного интеллекта Источник: Интернет

Кажется, все скоро наступит.Похоже, что генеративный искусственный интеллект (GAI, Generated AI), представленный ChatGPT, Midjourney и DALL-E 2, породил новые и более серьезные социальные риски, заставив развитие человеческого общества и применение Технология искусственного интеллекта Общая ситуация претерпела коренные изменения, и для решения этой проблемы необходимо принять новые стратегии, меры и методы, такие как полная приостановка исследований и разработок новых технологий искусственного интеллекта.

это действительно так? нет.

Во-первых, ГАИ не создает никаких новых рисков, а проблемы, которые он может вызвать, уже давно обсуждаются и обсуждаются в академических кругах. Во-вторых, для борьбы с рисками ГАИ не нужны никакие новые методы, ключом к борьбе с рисками ИИ всегда была реализация.

11 апреля Информационное бюро Интернета Китайской Народной Республики публично опубликовало «Меры по управлению генеративными службами искусственного интеллекта (проект для комментариев)», реагируя на управление ГАИ с беспрецедентной скоростью, доказывая, что применение ГАИ имеет огромное социальное значение. воздействие, и должны быть тщательно изучены и тщательно реализованы. Реагировать быстро.

01 Остерегайтесь выхода ИИ из-под контроля — «политкорректность» в сфере глобальных технологий

  1. Проблема безработицы, то есть она может привести к большому количеству безработных умственных работников, таких как планировщики копирайтинга, оригинальные художники, промышленные дизайнеры, программисты, медийные работники и переводчики.

  2. Образовательные проблемы, то есть это может повлиять на существующую систему образования и научных исследований, например, студенты могут использовать ChatGPT вместо выполнения домашних заданий.

  3. Проблемы информационной безопасности, то есть ГАИ автоматически генерирует большое количество контента искусственного интеллекта (AIGC, AI Generated Content), в котором трудно отличить подлинность от ложности, подозрительные позиции, неясное право собственности и трудная подотчетность. даже стать вызовом господствующим ценностям и опасным инструментом идеологии.

Риски ИИ давно оценены правительствами разных стран и в последние годы стали центром внимания всего общества. Очевидно, что три основных последствия, вызванных вышеупомянутым GAI, не являются новыми проблемами, и они были обеспокоены и изучены академическими кругами и правительством еще во время взрыва ChatGPT.

За последние десять лет, от Интернета вещей до больших данных, облачных вычислений, блокчейна, Metaverse, ChatGPT, среди волн подъема ИИ никогда не было недостатка в голосах, обращающих внимание на риски.

Меня профессионально беспокоит социальное влияние новых технологий, и я потратил много сил, чтобы напомнить всем о технических рисках, которые может вызвать ИИ. Например, он написал монографии «Общая теория управления технологиями», «Интернет вещей и приход вездесущего общества», «У меня нет лекарства от технологической болезни», «Ловушка метавселенной», «Четырнадцать лекций по науке и технике и Общество», напоминая непрофессионалам об ИКТ (Социальные воздействия и технологические риски информационных и коммуникационных технологий).

Можно сказать, что бдительность в отношении развития ИИ и недопущение выхода ИИ из-под контроля становится «политкорректностью» в области науки и техники во всем мире. В этой атмосфере голоса, которые публично заявляли, что «у ИИ нет запретных зон», были сильно подавлены. В этом отношении, как теоретик селекции технологического управления, я полностью согласен.

Что касается текущей ситуации с разработкой, какие серьезные риски есть у ChatGPT, с которыми нужно бороться «перевесным» способом, например, приостановить как минимум на шесть месяцев?

Некоторые люди говорят, что ChatGPT является признаком появления супер-ИИ.Если его не остановить сейчас (примечание: это не просто приостановка), как только «Ящик Пандоры» будет открыт, люди скоро будут под властью или даже исчезнут. супер ИИ. Людям трудно воспринимать всерьез такие причудливые идеи. В частности, многие профессионалы не признают ChatGPT в качестве общего ИИ, не говоря уже о прототипе суперИИ.

СуперИИ может быть проблемой, но когда дело доходит до предотвращения самовымирания человечества, многие риски, такие как ядерная война, изменение климата, распространение смертоносных вирусов и злоупотребление биотехнологиями, должны стоять выше суперИИ. Мы сначала остановим их всех? Даже если его нельзя остановить, можно сделать паузу, по крайней мере, вы можете вызвать паузу.

Поскольку нет ничего нового, нет необходимости прибегать к резкому подходу к приостановке разработки, почему?

Во-первых, приостановка необоснованна. Некоторые люди говорят, что меры реагирования на риски ChatGPT не были четко продуманы, поэтому он приостанавливается в первую очередь. неправильный! Дело не в том, что я не думал ясно, а в том, что я не реализовал это на месте.

Во-вторых, мораторий фактически выполнить невозможно, и обязательно найдутся ИИ-компании, которые нарушат запрет, и результатом будет недобросовестная конкуренция.

В-третьих, приостановка не решит проблему. Даже если все компании, занимающиеся ИИ, действительно приостановят исследования ГАИ, будет ли решена проблема риска? Нет! Если LLM (Large Language Models, большая языковая модель) не будут полностью остановлены и запрещены, риск не исчезнет. При перезапуске вам все равно придется столкнуться с рисками лицом к лицу.

Сегодня новые технологии являются важнейшим инструментом выживания и развития человечества, который нельзя оставлять без внимания. Роль ГАИ в повышении социальной продуктивности была четко выявлена: почему мы должны прекращать есть из-за удушья и почему мы не можем использовать его контролируемым образом?

В 20-м веке некоторые люди предположили, что технологий того времени было достаточно для человека, и дальнейшее развитие привело бы ко многим новым проблемам, технологии должны быть остановлены, а ученые должны прекратить заниматься исследованиями. Такие крайне иррациональные идеи никогда не воспринимались обществом всерьез.

02 Приостановка исследований и разработок ГАИ не может быть реализована, это абсолютно недействительная "музыка для рта"

ИИ может привести к различным социальным рискам, академические круги уже давно указывали на то, что также были предложены различные контрмеры. Поэтому сейчас вопрос заключается в том, чтобы внедрить меры управления ИИ в соответствии с национальными условиями, а не приостанавливать исследования и разработки в области ИИ. Фактами доказано, что идея приостановки исследований и разработок ГАИ проста и груба, малоэффективна и неосуществима, это чисто недопустимое "говорение".

Возьмем в качестве примера проблему безработицы ИИ. Проблема безработицы ИИ, то есть продвижение искусственного интеллекта, сопровождающееся тем, что все больше и больше людей теряют работу, является самой большой проблемой социального воздействия ИИ и предполагает всеобъемлющие институциональные инновации всего общества. В существующей литературе обсуждается проблема безработицы в области ИИ, которую можно охарактеризовать как непреодолимую, и существует множество конкретных контрмер, таких как планирование карьеры студентов, повышение грамотности работников в области ИИ, социальное обеспечение и повторное трудоустройство безработных, модернизация и преобразование промышленная структура и т. д.

Также впечатляет долгосрочное стратегическое планирование, например систематическое сокращение рабочего времени работников (некоторые места уже пытаются работать 4 дня в неделю), сбор налогов на ИИ (ИИ — это кристаллизация человеческого интеллекта, а компании с ИИ облагаются высокими налогами). для всех людей), гибкая пенсионная система (работники могут выйти на пенсию ненадолго несколько раз в течение жизни) и т. д.

Наибольшее влияние приложений ИИ на современную управленческую деятельность заключается в расширении экономической свободы, увеличении времени досуга, значительном изменении предпосылок для государственного управления и, таким образом, изменении фундаментального вида социальных операций. Однако это влияние также означает, что «проблема безработицы ИИ» становится все более серьезной, что создает серьезные проблемы для управленческой деятельности всего общества и требует осмотрительного решения. Индустриализация AIGC еще раз докажет серьезность проблемы безработицы в сфере искусственного интеллекта. Если не будет общей политики, ChatGPT определенно приведет к большому количеству «безработных ИИ», что, в свою очередь, будет препятствовать дальнейшему применению ChatGPT.

Комикс: Роботы берут на себя повторяющиеся задачи, такие как производство и упаковка. Источник: TC.

Решение «проблемы безработицы ИИ» должно учитывать как перспективу, так и реальность.

В долгосрочной перспективе решение «проблемы безработицы ИИ» предполагает фундаментальные изменения в социальной системе человека, и ее нельзя решить только за счет развития интеллектуальных технологий и интеллектуального управления. Согласно основным положениям марксизма, «проблема безработицы ИИ» отражает противоречие между развитием научно-технической производительности и существующими производственными отношениями. Способность роботов заменить человеческий труд не означает, что они действительно заменяют человеческий труд, потому что такая замена означает отмену эксплуататорской системы, в которой несколько человек заставляют работать большинство людей через институциональные механизмы. По сути, чтобы решить «проблему безработицы ИИ», мы должны постоянно сокращать рабочее время рабочих, давать людям больше свободного времени и, в конечном итоге, полностью ликвидировать систему эксплуатации. История труда 20 века показывает, что применение современных технологий в производстве продолжает сокращать общее рабочее время, необходимое для общества, и способствует внедрению «восьмичасовой системы труда» и «системы выходного дня» все большим числом стран. .

С реальной точки зрения, эволюция социальной системы занимает много времени, и она должна продвигаться постепенно и неуклонно, и она должна ждать непрерывного развития интеллектуальных технологий, поэтому наиболее актуальным вопросом является поиск новых рабочих мест. для рабочих, на которых повлиял искусственный интеллект, и обеспечить, чтобы Они могли пользоваться материальным богатством, созданным техническим прогрессом.

Поэтому в начале вспышки индустриализации AIGC страна, правительство и общество должны провести глубокие исследования, составить общие планы и активно реагировать на давление безработицы и занятости, которое может возникнуть.

Например, улучшить страхование по безработице и предоставить услуги по обучению для повторного трудоустройства, усилить планирование карьеры и повышение творческих качеств для молодых людей, скорректировать направление школьных талантов, особенно в гуманитарных, художественных и других дисциплинах, и ненадлежащим образом поощрять модернизацию промышленности для создания новых рабочих мест. Короче говоря, перед лицом риска безработицы, который может сопровождать ИИ, мы должны отказаться от экстремального мышления «или-или», попытаться избежать его и корректировать в режиме реального времени.

**03 Как управляется искусственный интеллект в Китае? **

Создание цифрового Китая является важным двигателем модернизации в китайском стиле в цифровую эпоху и мощной поддержкой для создания новых преимуществ в национальной конкуренции.

При построении цифрового Китая необходимо продвигать «ориентированное на человека» управление ИИ, чтобы ИИ действительно приносил пользу обществу. С этой целью мы должны сначала призвать все общество обратить внимание на проблему рисков ИИ.Правительство, предприятия, НПО, научно-технические круги и общественность, в соответствии с разделением обязанностей, улучшают политику и меры, усилить интеграцию ресурсов и координацию сил, а также сформировать совместную силу действий для контроля рисков ИИ.Программы фактически реализуются.

Кроме того, при управлении рисками ИИ также можно рассмотреть следующие принципиальные предложения:

Во-первых, реализуйте принцип ограниченных инструментов. Мы должны иметь четкое представление о роли интеллектуального управления - интеллектуальное управление не является панацеей "идеального оружия", во многих случаях оно также "провалится", и даже пойдет в обратную сторону, препятствуя социальной эффективности. Поэтому необходимо признать роль интеллектуальных технологий в повышении эффективности управления в определенных областях, определенных проблемах и определенных случаях и отдавать приоритет техническим средствам управления для решения проблем, всегда помня об ограниченной роли интеллектуальных технологий. . Придерживайтесь скромности науки и техники, будьте бдительны к «суевериям больших данных», придерживайтесь позиции обзора конкретного контекста и конкретного анализа и обращайте внимание на фактическую обратную связь и контроль рисков управленческой деятельности.

Во-вторых, настаивайте на одинаковом акценте на использовании и контроле. Необходимо играть роль интеллектуального управления, а также контролировать конкретное интеллектуальное управление, чтобы не допустить выхода из-под контроля силы интеллектуальных платформ и экспертов по техническому управлению. В то же время следует использовать институционально-технические методы, чтобы избежать социальных рисков, которые могут быть вызваны разумным управлением.

В-третьих, должным образом решить «проблему безработицы ИИ». Наибольшее влияние применения интеллектуальных технологий на современную управленческую деятельность заключается в: расширении экономической свободы, увеличении свободного времени, значительном изменении предпосылок для государственного управления и, таким образом, изменении фундаментального вида социальной деятельности. Однако это влияние также означает, что «проблема безработицы ИИ» становится все более серьезной, что ставит серьезные задачи перед управленческой деятельностью всего общества, привлекает внимание всего общества и требует осмотрительного решения.

В-четвертых, тесно интегрировать строительство «умного города» и «цифровой деревни». Управление городом с научной точки зрения — важная стратегическая мера управления современными технологиями, а умный город — это передовая форма научного города. Поскольку в настоящее время люди в основном живут в городах, особенно в крупных и сверхкрупных городах, нынешнее интеллектуальное управление в основном продвигается вокруг строительства «умных городов» или строительства «умных городов» в качестве основного носителя. В частности, строительство цифрового Китая не может игнорировать строительство цифровых деревень, и необходимо приложить усилия для сокращения разрыва между городскими и сельскими районами за счет цифровизации.

В-пятых, обратите внимание на интеграцию интеллектуальных технологий и людей. В технологическом управлении чем лучше сочетание технологий и людей, тем выше эффективность управления. Чтобы усилить интеграцию человеческих и технических факторов в деятельность по интеллектуальному управлению, необходимо систематически отражать характеристики различных интеллектуальных технологий и связанных с ними этических норм, законов, психологии, антикризисного управления и т. д., чтобы способствовать построению систем, технологическим исследованиям и разработкам. , и резервы талантов, а также для укрепления организационного лидерства., экспертные консультации и фактические боевые учения, а также постоянно и систематически улучшать возможности интеллектуального управления Китая.

В-шестых, отличайте управление от манипулирования в конкретных контекстах. У разумного управления есть предел, и если он выходит за этот предел, оно превращается в разумную манипуляцию и нарушает основные права граждан. Будущее развитие интеллектуального управления должно конкретно учитывать пределы различных приложений. Это касается не только целей управления, но и используемых средств. Его можно рассматривать только спокойно, объективно и осторожно в конкретном социальном контексте. Чтобы интеллектуальное управление не сдвинулось к разумному манипулированию, очень важным вопросом является то, что антиправительственное поведение разумного управления должно быть до определенной степени терпимо.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить