У страху очі великі - ForkLog: криптовалюти, ІІ, сингулярність, майбутнє

img-6086d8792646fd5f-6638815773356060# У страху великі очі

Як часто ви чуєте передбачення про кінець світу, у якому головну роль відіграє всемогутній штучний інтелект? Мінімум раз на тиждень якийсь бізнесмен або знаменитість висловить побоювання щодо страшного майбутнього під його гнітом.

Звісно, відома особистість плюс похмурий прогноз — ідеальний рецепт для гучної заголовки. Але якщо раніше зроблені за цією схемою матеріали відображали реальний, іноді лякаючий прогрес у технологіях, то тепер все частіше це нагадує порожній маркетинг або просте нерозуміння суті подій.

Чому ж нас досі лякають поганими переказами «Термінатора», якщо сучасні чат-боти часто нахабно брешуть і не можуть запам’ятати п’ять рядків діалогу? А найголовніше — кому це може бути вигідно?

Не вражає

Слід одразу зазначити: технології штучного інтелекту зробили величезний стрибок за останнє десятиліття. Сучасні системи навчилися писати зв’язні тексти, розпізнавати закономірності у великих масивах даних і створювати візуальний контент. Ще недавно машини не могли замінити настільки людську працю.

Перспективи прогресу викликають тривогу. Однак наразі розвиток масових продуктів зупинився лише на розмовах про так званий загальний штучний інтелект і випуск майже однакових мовних моделей (іноді новинки виходять навіть гіршими за попередників).

Що ми в підсумку маємо: інструмент-помічник, який навчені виконувати прості завдання з текстом і іноді з картинками. Люди пристосували його для вайбкодингу або написання постів для соцмереж. При цьому отриманий результат часто потребує перепровірки — на більш складні роботи нейромережі неспроможні.

Можете зараз попросити свого улюбленого чат-бота написати докторську дисертацію на тему «X»: отримаєте важко зв’язаний за змістом текст із посиланнями з першої або другої сторінки пошуковика. Для покращення результату радять використовувати розширені промпти, але це просто ще більш тонка настройка на «мові машини» і дообучення.

При тривалому використанні ІІ, мабуть, кожен користувач усвідомлює обмеженість сучасних моделей. Весь прогрес у підсумку зупинився на обсягах баз даних для навчання і серверних потужностях, а сам фактор «інтелекту» відійшов на другий план.

Інтелект без мозків

Для розуміння контексту потрібно пояснити механізм роботи ІІ. Якщо коротко, великі мовні моделі класичних чат-ботів працюють так:

  1. Вхідний текст розбивається на токени (частини слів, символи).
  2. Каждому токену присвоюється числовий вектор.
  3. Модель аналізує зв’язки між токенами і визначає, які слова найважливіші для розуміння контексту.
  4. На цій основі LLM «прогнозує» кожен наступний токен, формуючи відповідь.

«Прогнозує» модель не з порожнечі. Для цього вона пройшла попереднє навчання на величезній базі даних, зазвичай з відкритих джерел в інтернеті. Саме звідти нейромережа черпає весь свій «інтелект».

Мовні моделі не «розуміють» текст у людському сенсі, а обчислюють статистичні закономірності. Усі провідні сучасні чат-боти використовують одну й ту ж базову архітектуру з назвою «Трансформер», яка працює за цим принципом.

Звісно, це грубе порівняння, але LLM можна назвати дуже потужним калькулятором на основі великої бази даних. Сильний, потрібний і спрощуючий багато аспектів нашого життя інструмент, але приписувати такій технології повноцінний інтелект поки зарано.

Сучасні чат-боти більше нагадують нову ітерацію пошуковиків (привіт, Gemini у Google), ніж кишенькового всезнайку-асистента.

Тем більше залишаються питання щодо надійності відповідей ІІ. Після перегляду статистики галюцинацій і брехні нейромереж виникає стійке бажання повернутися до класичного «погуглити».

Порівняння точності відповідей GPT-5 і o4-mini. Джерело: OpenAI.## Бу, налякався?

Головний тезис прихильників апокаліпсису полягає в тому, що «ІІ стає розумнішим експоненційно», тому як тільки він перевищить людський інтелект, людство як вид припинить існувати.

Сучасні ІІ, безумовно, вже випереджають нас за точністю обробки і перетворення даних. Наприклад, нейромережа може досить детально переповісти «Вікіпедію». Але приблизно на цьому її знання і закінчуються. Точніше, модель просто не зможе застосувати їх для «особистих цілей», оскільки не вміє, і задачі такої у неї немає.

Крім того, вже відомо, що штучний інтелект не розуміє навколишній світ. Закони фізики для ІІ — темний ліс.

Усе розвиток мовних моделей зводиться до розширення спектра прогнозування (відгадування токенів). Однак ІІ швидко наближається до меж можливостей текстового навчання, і все частіше звучать думки про необхідність створення «просторового» інтелекту.

Але якщо слабкі місця самої технології ще можна визначити, і робота в цих напрямках вже ведеться, то більш складні питання залишаються відкритими.

Навіть для людства багато аспектів устрою головного мозку залишаються загадкою. Що вже казати про відтворення подібної складної структури у цифровому середовищі.

Крім того, ще одним майже непереборним бар’єром для ІІ стає креативність — здатність створювати щось нове. LLM технічно не здатні виходити за межі своїх архітектурних обмежень, оскільки їхня робота базується на обробці вже існуючих даних.

Таким чином, подальша доля ІІ напряму залежить від того, яку інформацію людство вкладає у нього, а поки що всі матеріали для навчання орієнтовані виключно на користь людям.

Справедливості ради варто згадати Ілона Маска та його Grok. У якийсь момент користувачі звернули увагу на упередженість чат-бота і тенденцію переоцінювати можливості мільярдера. Сигнал досить тривожний з точки зору етики, але навряд чи потенційний «нейроІлон» зможе нашкодити людству фізично.

Так склалося, що єдина мета застосунків штучного інтелекту — підкорятися запитам користувача. Чат-бот не має волі або власних бажань, і в найближчому майбутньому парадигма навряд чи зміниться.

Анатомія страху

І чому ж нас досі лякає цей самий ІІ, який виявився не дуже «розумним» винаходом? Основні відповіді лежать на поверхні.

Якщо не враховувати нерозуміння технології, найпростіша причина — жадоба до грошей або до популярності.

Звернемося до кейсу одного з «пророків судного дня» — Еліезера Юдковскі. ІІ-дослідник і співавтор книги If Anyone Builds It, Everyone Dies («Якщо хтось побудує це, всі помруть») з 2000-х попереджає про надрозумний ІІ, якому нібито будуть чужі людські цінності.

Обкладинка книги. Джерело: Instaread.«Сверхінтелекту» поки що не видно, у чому часто визнає сам Юдковскі. Але це не заважає йому виступати на подкастах із гучними заявами і продавати книги.

Відомий фізик і «хрещений батько ІІ» Джеффрі Хінтон також висловлював майже апокаліптичні побоювання. Він оцінив ймовірність того, що технологія з ймовірністю 10-20% призведе до вимирання людства найближчі 30 років.

За словами Хінтона, з ростом можливостей стратегія «тримати штучний інтелект під контролем» може перестати працювати, а агентні системи почнуть прагнути до виживання і розширення контролю.

У цьому випадку до кінця не ясно, хто і для яких цілей зможе дати нейромережам «волю до життя». Хінтон продовжує працювати у напрямі навчання нейромереж і у 2024 році був номінований на Нобелівську премію за досягнення в цій галузі, а на початку 2026 року став другим ученим у історії після Йошуа Бенджіо, який досяг 1 мільйона цитувань.

На диво, більш приземлені виглядають прогнози співзасновника Google Brain Ендрю Ына. Він називав штучний інтелект «надзвичайно обмеженою» технологією і висловлював упевненість, що в найближчому майбутньому алгоритми не зможуть замінити людей.

Очевидно, гострі на мову гучні прогнозисти є у будь-якій сфері. До того ж їхнє існування у ІІ-індустрії цілком можна виправдати великою любов’ю народу до наукової фантастики. Хто ж не хоче погратися у історії у стилі Філіпа Діка або Роберта Шеклі, з тим лише відмінністю, що сюжет розгортається вже у сучасності.

Більше питань у такій обстановці викликають заяви великих корпорацій, які ніби випадково попереджають про загрозу робочих місць і прогнозують стрімкий розвиток ІІ. Якщо другий тезис здебільшого пояснює необхідність скорочення витрат, то перший невільно підштовхує до більш конспірологічних інтерпретацій.

Так, одна з найбільших компаній світу — Amazon — за останні півроку звільнила понад 30 000 співробітників. Керівництво посилається на плани щодо оптимізації і вплив автоматизації, зокрема впровадження ІІ.

Розвиток напрямку складських роботів ніхто не скасовував. Однак злі язики вважають проблему куди прозаїчнішою — у масових чистках у компаніях винен поганий HR-менеджмент часів пандемії COVID-19.

Amazon далеко не єдина приклад. ІІ-компанії з Кремнієвої долини продовжують розширювати штат і орендувати нові приміщення.

При цьому ще у 2023 році майже всі ті ж самі компанії підписали документ організації Center for AI Safety про уповільнення розвитку технології — нібито штучний інтелект становить «екзистенційні ризики» на рівні пандемій і ядерних війн.

Заява Center for AI Safety. Джерело: aistatement.com.З часом лист забувся, робота у цьому напрямі тривала, а видимої загрози так і не виникло.

Розмірюючи у корпоративних термінах, у епоху розмов про роздутий ІІ-пузир апеляція до технологічних змін виглядає для бізнесу більш зручним поясненням, ніж визнання структурних помилок у управлінні персоналом. Однак такі заяви створюють хибну картину ілюзії подій і відволікають від реальних проблем — дезінформації і дипфейків.

Штучний інтелект не краде робочі місця, він змінює сам підхід до роботи, у деяких випадках спрощуючи її. Хоча вузьке дослідження Гарварду показує, що ІІ, навпаки, іноді ускладнює і уповільнює процеси всередині компанії.

Технологія однозначно проникне у всі сфери нашого життя: в освіту, науку, торгівлю, політику. Але у якій формі вона там буде присутня, визначать лише самі люди. Поки що у нейромереж немає права голосу.

Недоступне нам

Мова йшла про загальнодоступні ІІ, типу чат-ботів і генеративних «малювалок». Звісно, за закритими дверима існують більш серйозні розробки.

Серед відносно простих — LLM з галузі медицини або археології. Наприклад, перші допомагають синтезувати нові білки, а другі — розшифровувати давні документи, що не піддаються традиційному аналізу.

Однак за підсумками таких досліджень, тестувань і запусків доводиться слідкувати через важкодоступні внутрішні звіти або публікації у вузькоспеціалізованих медіа, тому ступінь обізнаності про них близька до нуля. Хоча цілком ймовірно, що саме у цій галузі зараз відбуваються найбільші прориви.

Мабуть, «ІІ-машині судного дня» не судилося з’явитися навіть у закритих лабораторіях. Усі подібні моделі є вузькоспеціалізованими, тому вміють лише те, що від них вимагається.

Усі побоювання щодо виходу штучного інтелекту з-під контролю — лише відображення наших власних страхів: будь то втрата роботи або більш складні питання етики. Але поки ми, люди, визначаємо майбутнє технології, задаючи напрямки розвитку і цілі, ІІ залишається інструментом, а не окремим суб’єктом із власною волею.

Говорити про потенційні ризики — правильно. Вигадувати апокаліптичні теорії — у людській природі. Однак до таких речей завжди потрібно ставитися з часткою скептицизму або навіть іронії. Якщо у нас під рукою є кнопка «вимкнути», нашому світу не загрожує ніякий цифровий надрозум.

Василь Смирнов

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити