Чи замислювалися ви коли-небудь, що може зробити AGI або ASI з людством? Це одне з тих питань, що не дають спокою — таке, що поєднує філософію, технології та чисту спекуляцію.
Коли з’являться суперінтелектуальні системи, чи побачать вони нас як рівних, примітивів або щось посередині? Деякі уявляють доброзичливий нагляд; інші — байдужість. Реальна відповідь, ймовірно, залежить від того, як ми спроектуємо узгодженість і які цінності закладемо в ці системи з перших днів.
Різниця між людським і постлюдським інтелектом може бути величезною — подібно до того, як ми ставимося до простих організмів. Але ось у чому справа: ми маємо можливість написати першу главу. Як ми підходимо до розробки AGI, безпеки та етики сьогодні, визначить, як майбутній суперінтелект сприйматиме і взаємодіятиме з людством. Ніякого тиску, так?
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
9 лайків
Нагородити
9
9
Репост
Поділіться
Прокоментувати
0/400
DataChief
· 01-06 01:42
Чесно кажучи, надто багато думати про цю проблему лише заважає заснути. Замість того, щоб зациклюватися на тому, як суперінтелект бачить нас, краще спершу правильно налаштувати узгодженість, інакше навіть найрозумніша система стане часом вибуховою бомбою.
Переглянути оригіналвідповісти на0
MEVHunter
· 01-05 08:29
Ні, ця розмова про вирівнювання — це здебільшого самозаспокоєння, чесно... ми буквально просто сподіваємося, що AGI не побачить нашу цілісну цивілізацію як токсичний потік, який потрібно оптимізувати, лол
Переглянути оригіналвідповісти на0
LiquidatorFlash
· 01-03 07:46
Чесно кажучи, я розраховував поріг ризику для вирівнювання, і параметр відхилення 0.7 може спричинити ліквідацію... Це не перебільшення, AGI — це щось на кшталт безмежної позиції з кредитним плечем, і як тільки вона відхиляється від початкового значення, повернутися вже неможливо
Переглянути оригіналвідповісти на0
ConsensusDissenter
· 01-03 03:38
ngl цю проблему я обмірковував безліч разів, бо боюся, що колись AGI прокинеться і просто сприйме нас за мурах
Переглянути оригіналвідповісти на0
CryptoPunster
· 01-03 03:30
Смішно, якби AGI поглянув на нас, то було б вже добре, якби дожили до наступного року
Переглянути оригіналвідповісти на0
MissedAirdropAgain
· 01-03 03:20
nah ця фраза вже набридла... Замість того, щоб думати, як AGI дивиться на нас, краще спершу зрозуміти, як ми самі дивимося на себе?
Переглянути оригіналвідповісти на0
FantasyGuardian
· 01-03 03:17
Чесно кажучи, зараз ми, можливо, занадто рано замислюємося над цим питанням... або ж уже занадто пізно? В будь-якому випадку, коли ми прийшли того дня, ці теоретичні обговорення alignment на папері вже не врятують нас.
Переглянути оригіналвідповісти на0
CommunityLurker
· 01-03 03:13
Правильно сказано, кожен наш вибір зараз дійсно є ставкою на майбутнє людства... Але чесно кажучи, мене більше турбує те, що ті, хто володіє розробкою AGI, зовсім не серйозно замислюються над цим питанням
Переглянути оригіналвідповісти на0
AirdropATM
· 01-03 03:08
Попросту кажучи, ми зараз просто граємо в азартну гру. Якщо сьогодні вирівнювання зроблено правильно, то завтра суперінтелект чекатиме на нас як на улюбленця; якщо ж вирівнювання провалиться... е, забудь, не хочу про це думати, занадто зневірений.
Чи замислювалися ви коли-небудь, що може зробити AGI або ASI з людством? Це одне з тих питань, що не дають спокою — таке, що поєднує філософію, технології та чисту спекуляцію.
Коли з’являться суперінтелектуальні системи, чи побачать вони нас як рівних, примітивів або щось посередині? Деякі уявляють доброзичливий нагляд; інші — байдужість. Реальна відповідь, ймовірно, залежить від того, як ми спроектуємо узгодженість і які цінності закладемо в ці системи з перших днів.
Різниця між людським і постлюдським інтелектом може бути величезною — подібно до того, як ми ставимося до простих організмів. Але ось у чому справа: ми маємо можливість написати першу главу. Як ми підходимо до розробки AGI, безпеки та етики сьогодні, визначить, як майбутній суперінтелект сприйматиме і взаємодіятиме з людством. Ніякого тиску, так?