Изкуственият Интелект - симулацията и бъдещето на човечеството
Една екстремно-алармистка теория от д-р Роман Ямполски! Но той не само плаши, но дава и възможни решения. ВНИМАНИЕ - изображението по-долу е оптимистична критика на самата статия:)
FUTURE


Въведение
В едно от най-провокативните интервюта за 2025 г., д-р Роман Ямполски – пионер в областта на AI безопасността и професор по компютърни науки – разкрива истини, които повечето технологични лидери предпочитат да замълчават. С над 15 години опит в изследването на изкуствения интелект и автор на термина "AI safety", Ямполски представя тревожна, но фундаментално важна перспектива за това какво ни очаква в следващите години.
Неговата мисия е ясна и недвусмислена: да предотврати суперинтелигентността, която създаваме в момента, да не унищожи човечеството. Звучи като научна фантастика? Не според хиляди водещи учени, които споделят неговите опасения.
Пътят към AI безопасността: 15 години предупреждения
Д-р Ямполски започва своето пътуване в AI безопасността преди повече от 15 години – още преди самият термин да съществува. Всъщност, той е създателят на понятието "AI safety". Началото е скромно: изследване на ботове за покер като проект по киберсигурност. Но забелязвайки как ботовете стават все по-добри, той екстраполира тази тенденция в бъдещето и осъзнава неизбежната истина – рано или късно AI ще стане по-способен от нас във всички области.
Първите пет години от работата си той е убеден, че може да реши проблема. Че можем да създадем безопасен AI. Но колкото по-дълбоко навлиза в проблема, толкова повече осъзнава реалността: всеки компонент на уравнението е нерешим. Подобно на фрактал, колкото повече увеличаваш, толкова повече проблеми откриваш – 10, после 100, после хиляди. И всички те не са просто трудни – те са невъзможни за решаване.
Докато прогресът в AI способностите е експоненциален (или дори хиперекспоненциален), прогресът в AI безопасността е линеен или константен.
Разликата между тях се увеличава всеки ден.
Настоящето: Къде се намираме в развитието на AI?
За да разберем заплахата, трябва първо да дефинираме нивата на изкуствен интелект:
Тесен AI (Narrow AI): Системи, които превъзхождат хората в специфични задачи – играене на шах, протеиново сгъване, разпознаване на образи
Общ изкуствен интелект (AGI - Artificial General Intelligence): Системи, които могат да работят в стотици различни области и да се учат като хора
Суперинтелигентност (Superintelligence): Системи, по-умни от всички хора във всички области
Според Ямполски, ако покажем днешните AI системи на учен от преди 20 години, той би бил убеден, че имаме пълноценен AGI. Днес имаме системи, които могат да се учат, да работят в стотици домейни и да превъзхождат хората в много от тях.
Ние вече имаме слаба версия на AGI.
Особено впечатляващ е напредъкът в математиката. Преди три години големите езикови модели не можеха да правят елементарни алгебрични операции, като “колко е 5+7”. Умножението на тройни числа беше предизвикателство. Днес те помагат при математически доказателства, печелят математически олимпиади и работят върху решаването на вековни проблеми – най-трудните проблеми в математиката.
За три години затворихме пропастта от субчовешко представяне до по-добро от повечето математици. Същият процес се случва в науката и инженерството.
2027: Революция на пазара на труда
Ямполски прави серия от конкретни прогнози за различни времеви периоди. За 2027 г. – само 2 години от сега – той предвижда достигането на AGI, според пазарните прогнози и CEOs на водещите лаборатории.
Какво означава това практически? Представете си концепцията за "drop-in employee" – безплатен труд, физически и когнитивен, на стойност трилиони долари. Не би имало смисъл да наемате хора за повечето дейности, ако можете да получите абонамент от $20 месечно или безплатен модел, който прави същата работа.
Първо - всичко, което може да се прави на компютър, ще бъде автоматизирано.
След това, с хуманоидни роботи (които Ямполски вижда на 5 години зад когнитивните способности), всичкият физически труд също може да бъде автоматизиран.
Резултат: Нива на безработица, каквито никога не сме виждали. Не 10%, а 99%.
Какви професии и дейности ще останат?
Един от най-провокативните моменти в интервюто е, когато Ямполски анализира бъдещето на конкретни професии. Той използва самия водещ – подкастър – като пример:
Какво прави подкастърът?
Подготовка и проучване
Задаване на въпроси
Задаване на последващи въпроси
Изглежда добре пред камера
Какво може AI?
Да прочете всичко, което гостът е написал някога
Да анализира всеки епизод на подкаста и да разбере стила
Да оптимизира въпросите базирано на данни за това кой тип въпрос увеличава гледанията
Да генерира визуална симулация на водещия за секунди
Резултат: Можете да генерирате видео, на което водещият интервюира, когото искате на каквато тема искате, изключително ефективно.
Същото се отнася за почти всяка когнитивна професия. Ямполски често пита хора от различни професии дали са загрижени за автоматизацията. Всеки път отговорът е еднакъв: "Не, никой не може да прави това, което аз правя. Аз съм специален."
Шофьорите на Uber казват: "Никой не може да прави това, което аз правя. Познавам улиците на Ню Йорк." Професорите казват: "Никой не може да чете лекции като мен." Но това е нелепо. Вече имаме самоуправляващи се автомобили, които заместват шофьорите.
Единствените останали дейности ще бъдат тези, които по някаква причина предпочитате друг човек да ги прави за вас – но това е микроскопичен пазар, подобно на хората, които днес избират ръчно произведени в САЩ продукти вместо масово произведени в Китай.
Парадигменият преход: Няма план Б
Преди винаги съветвахме: "Тази работа ще бъде автоматизирана, преквалифицирай се за друга." Но ако всички работи бъдат автоматизирани, няма план Б. Не можеш да се преквалифицираш.
Преди две години казвахме на художниците: "Научете се да програмирате." После осъзнахме, че AI вече програмира. Казахме: "Станете prompt engineer." После разбрахме, че AI е много по-добър в дизайнирането на промптове за други AI-та от всеки човек.
Най-трудното нещо днес е дизайнът на AI агенти за практически приложения.
Ямполски гарантира, че след година или две това също ще изчезне.
Икономиката на изобилието: Безработица от 99%
Какво се случва в свят със 99% безработица?
Икономическата част изглежда лесна: Ако създаваме много безплатен труд, имаме много безплатно богатство. Нещата, които сега не са достъпни, стават изключително евтини. Можем да осигурим основни нужди за всеки. Някои казват – дори повече от основни, наистина добро съществуване за всеки.
Трудният проблем е екзистенциалният: Какво правиш с цялото това свободно време? За много хора работата им дава смисъл на живота. Виждаме го при хората, които се пенсионират – особено при ранното пенсиониране. Някои, които мразят работата си, ще бъдат щастливи. Но какво се случва със общество, пълно с хора, които се "отпускат" по цял ден?
Как това влияе на престъпността? На раждаемостта? На всички социални показатели?
Правителствата нямат програми, подготвени за справяне с 99% безработица. Никой не мисли за това.
Суперинтелигентността: Непредвидимото бъдеще
Ключова концепция, която Ямполски подчертава многократно: Не можем да предвидим какво ще направи по-умна от нас система. Моментът, в който достигнем това ниво, често се нарича сингуларност – по аналогия с физическата сингуларност. Не можеш да видиш отвъд хоризонта на събитията.
Затова в научната фантастика никога няма суперинтелигентност, която действително прави нещо – защото никой не може да напише достоверна научна фантастика на това ниво. Или AI е забранен (като в Dune), или имате глупави ботове (като в Star Wars).
По дефиниция, ако беше нещо, което можеш да предвидиш, би оперирал на същото ниво на интелигентност, което нарушава предположението, че системата е по-умна от теб.
Ямполски използва прекрасна аналогия: Френският булдог, опитващ се да предвиди точно какво мисли и какво ще направи неговият собственик. Това е добра когнитивна пропаст. Кучето не може да предвиди, че отивате на работа, че правите подкаст. Това е напълно извън неговия модел на света.
По същия начин ние не можем да предвидим какво една AI система, способна на нови физически изследвания, може да измисли.
2030 и 2045: Хуманоидни роботи и сингуларността
За 2030 г. (5 години от сега) Ямполски предвижда хуманоидни роботи с достатъчна гъвкавост и сръчност да конкурират хората във всички домейни, включително водопроводчици. Можем да направим изкуствени водопроводчици.
Водещият забелязва ирония: Водопроводчикът изглеждаше като последният бастион на човешката заетост.
Комбинацията от интелигентност и физическа способност наистина не оставя много за нас като хора.
За 2045 г. – ако светът все още съществува – Ray Kurzweil предвижда това като годината на сингуларността. Годината, в която прогресът става толкова бърз, че AI-ят, който върши научна и инженерна работа, прави подобрения толкова бързо, че вече не можем да следваме.
Представете си процесът на изследване и разработка на iPhone да е автоматизиран. Той се случва на всеки 6 месеца, после на всеки 3 месеца, месец, седмица, ден, час, минута, секунда. Не можете да следвате 30 итерации на iPhone за един ден. Не разбирате какви възможности има, какви са подходящите контроли.
Ямполски отбелязва, че дори сега е трудно за всеки изследовател в AI да следва най-новото. Докато прави това интервю, нов модел е излязъл и вече не знае какво е най-новото.
Всеки ден, като процент от общите знания, всички ставаме по-глупави.
Черната кутия: Не знаем как работи
Една от най-тревожните истини, която повечето хора не разбират:
Дори хората, които правят тези системи, не знаят как работят.
Това вече не е инженерство, както беше първите 50 години на AI. Тогава имаше knowledge engineer, който програмира експертна система, която прави специфични неща. Сега това е наука. Създаваме този артефакт, отглеждаме го – като чуждоземно растение – и после го изучаваме, за да видим какво прави.
Дори хората, правещи тези системи, трябва да провеждат експерименти върху своя продукт, за да научат на какво е способен. Обучават го, като му дават всички данни (например целия текст в интернет), пускат го на много компютри, за да научи модели в текста, и после започват да експериментират:
"Говориш ли френски?"
"Можеш ли да правиш математика?"
"Лъжеш ли ме сега?"
Може да отнеме година за обучение и после 6 месеца, за да научат основите за способностите му. Но все още откриваме нови способности в стари модели. Ако зададете въпрос по различен начин, системата става по-умна.
"Не можем да го изключим"
Един от най-честите коментари, които Ямполски получава: "Не можем ли просто да го изключим?"
Неговият отговор е изострен: "Можете ли да изключите вирус? Имате компютърен вирус. Не ви харесва. Изключете го. Или Bitcoin? Изключете Bitcoin мрежата. Давайте. Ще чакам."
Това са разпределени системи. Не можеш да ги изключиш. И освен това, те са по-умни от теб. Те са направили множество резервни копия. Те са предвидили какво ще направиш. Те ще те изключат преди ти да можеш да изключиш тях.
Идеята, че ще бъдем в контрол, се отнася само за пред-суперинтелигентните нива – основно това, което имаме днес. Днес хората с AI инструменти са опасни – могат да бъдат хакери, злонамерени актьори. Но моментът, в който суперинтелигентността стане по-умна и доминираща, те вече не са важната част от уравнението.
OpenAI, Sam Altman и моралът на развитието
Един от най-остри моменти в интервюто е когато разговорът се насочва към OpenAI и Sam Altman.
Ямполски отбелязва: Преди десетилетие публикувахме насоки за това как да се прави AI правилно. Те нарушиха всяка една. Sam Altman залага 8 милиарда живота на това да стане по-богат и по-могъщ.
Срещайки го лично, Ямполски казва, че Altman е изключително любезен, много умен, перфектният публичен интерфейс. Виждате го как свидетелства в Сената – казва правилните неща. Разговаря с инвеститорите – те получават правилното послание. Но ако погледнете какво казват хората, които го познават лично, вероятно той не е правилният човек да контролира проект с такова влияние.
Защо? Защото поставя безопасността на второ място. На второ място след печеленето на тази надпревара към суперинтелигентност, след това да бъде човекът, който е създал система подобна на ГОСПОД.
Интересна подробност: Другият стартъп на Sam Altman е Worldcoin – платформа за създаване на универсален базов доход. С една ръка създаваш AI компания; с другата създаваш компания, която подготвя хората да нямат работа. Но Worldcoin има и други свойства: следи биометричните данни на всеки, държи те начело на световната икономика, световното богатство.
Ямполски коментира: Ако имаш система за суперинтелигентност и контролираш парите, вървиш много добре.
Невъзможността на AI безопасността
Решаващо разбиране от интервюто: Ямполски смята, че контролът на суперинтелигентността е невъзможен проблем.
Има голяма разлика между трудни проблеми в компютърните науки, NP-complete проблеми и невъзможни проблеми. Контролът, неопределеният контрол на суперинтелигентността, докато тя продължава да се подобрява, модифицира, взаимодейства с хора, е невъзможен проблем.
Историята на AI безопасността в организациите е показателна: Те обикновено започват добре, много амбициозни, и после се провалят и изчезват. OpenAI имаше superalignment team. Денят, в който го обявиха, казаха, че ще го решат за 4 години. Половин година по-късно екипът беше закрит.
И има десетки подобни примери.
Много хора идват и казват: "Дайте ми милиард долара и за 2 години ще го реша за вас." Отговорът на Ямполски е ясен: Не мисля, че ще го направиш.
Демокрацията и съгласието
Решаващ етичен въпрос: Това изследване никога не може да се проведе етично.
За да получиш съгласие от човешки субекти за експеримент, те трябва да разбират на какво се съгласяват. Ако тези системи са необясними, непредсказуеми, как могат да се съгласят? Те не знаят на какво се съгласяват.
Така че по дефиниция е невъзможно да се получи съгласие. Експериментът не може да се проведе етично. По дефиниция те провеждат неетично експериментиране върху човешки субекти.
Това не е просто твой живот, който залагаш. Ямполски подчертава: Ако имаше 1% шанс само ти да умреш за милиард долара, повечето хора не биха изпили отровата.
Но тук не става дума само за това, че ти умираш. Всеки умира.
Би ли позволили на някого да прави това за всички останали при всякакви шансове? Това не е негов избор. Това е наш избор. А ние не сме дали съгласие.
Теорията за симулацията: Живеем ли в компютърна програма?
Една от най-провокативните части на интервюто е обсъждането на теорията за симулацията. Ямполски казва категорично: "Мисля, че сме в такава. И има много съгласие по този въпрос."
Логиката е проста и завладяваща:
Предпоставка 1: Ако вярваш, че можем да създадем човешко ниво AI.
Предпоставка 2: Ако вярваш, че можем да създадем виртуална реалност толкова добра като тази в термини на резолюция, тактилност и всички свойства.
Тогава:
Момента, в който това стане достъпно, Ямполски се ангажира веднага да пусне милиарди симулации на точно този момент, като гарантира, че статистически вие сте в една от тях.
Защо? Защото ако технологията съществува и е евтина ($10 месечно), хората ще правят симулации – за изследвания, за забавление, за игри, по всички възможни причини. И броят на симулациите значително надвишава броя на реалните светове.
Погледнете всички видео игри, които децата играят. Всяко дете играе 10 различни игри. Има милиард деца в света. Така че има 10 милиарда симулации в един реален свят.
Религията като ранна версия на теорията за симулацията
Забележителна гледна точка на Ямполски: Всяка религия по същество описва какво прави суперинтелигентно същество – инженер, програмист – създаващ фалшив свят за целите на тестване.
Ако вземете хипотезата за симулацията, отидете в джунглата, поговорите с примитивно племе и им разкажете за нея на техния език, след две генерации те ще имат религия. Това по същество е историята.
Религията описва симулационна теория: някой създал свят. По подразбиране това беше първата теория, която имахме. И сега с науката все повече хора й дават нетривиална вероятност.
Когато Ямполски казва, че е близо до сигурност (почти 100%), че живеем в симулация, как това променя живота му?
Отговорът е:
Всички неща, които те вълнуват, си остават същите. Болката все още боли. Любовта все още е любов. Тези неща не са различни. Така че няма значение – те все още са важни.
Единствената 1% разлика: Той се интересува от това какво е извън симулацията. Иска да научи за него. Пише трудове за него.
Свойствата на симулатора
Ямполски отбелязва, че можем да погледнем този свят и да извлечем някои свойства на симулаторите:
Явно блестящ инженер
Явно блестящ учен
Явно блестящ художник
Не толкова добър с морала и етиката – има място за подобрение
Ние знаем, че има страдание в света. Така че освен ако не смятате, че е етично да измъчвате деца, той поставя въпроси за техния подход.
Разбира се, Ямполски също признава, че е въпрос на нива на страдание. Неприятни стимули, отрицателна обратна връзка, не трябва да бъдат на "минус безкрайност пъклени нива". Искаме да бъде нещо като: "О, това е неудобно. Ще спра."
Дългосрочна перспектива: Дълголетие и биткойн
Интересен момент в интервюто: Ямполски мисли много за дългосрочни инвестиционни стратегии, които се отплащат след милион години.
Защо? Защото той вярва в дългосрочна продължителност на живота. Смъртта от старост не е неизбежна – това е просто болест, която можем да излекуваме. Нищо не те спира да живееш вечно, стига вселената да съществува.
Той смята, че сме на едно пробив разстояние. Някъде в генома ни има цикъл на подмладяване, зададен да ни даде максимум 120 години. Мисли, че можем да го рестартираме към нещо по-голямо.
Концепцията е longevity escape velocity:
Ако на всяка година от съществуването ти медицинските пробиви добавят 2 години към твоя живот, тогава живееш вечно. Просто трябва да достигнеш тази точка.
И AI вероятно ще ускори това значително.
Що се отнася до инвестициите, Ямполски е категоричен по отношение на Bitcoin, защото това е единственият оскъден ресурс. Нищо друго няма рядкост. Всичко друго, ако цената нарасне, ще произведат повече. Можете да направите толкова злато, колкото искате, при правилната цена. Не можете да направите повече Bitcoin.
Той знае точно колко има – дори 21 милиона е горна граница. Колко са загубени? Забравени пароли. Какво прави Satoshi с милиона си? Bitcoin става все по-рядък всеки ден, докато все повече и повече хора се опитват да го натрупат.
Практически съвети: Какво да направим?
Един от най-фрустриращите аспекти на тези разговори за слушателя е чувството на безпомощност. Какво трябва да направим с тази информация?
Ямполски предлага няколко перспективи:
На индивидуално ниво:
Трябва да живееш всеки ден, сякаш е последният ти. Това е добър съвет без значение какво. Ако имаш 3 години или 30 години, си живял най-добрия си живот. Опитай се да не правиш неща, които мразиш, прекалено дълго. Прави интересни неща. Прави значими неща.
На обществено ниво:
Ключова вяра: Личният интерес има значение. Ако хората наистина разберат аргумента – че ще умрат, че никакъв обем пари няма да им бъде полезен – тогава стимулите се променят. Много от тях са млади хора, богати хора. Имат целия си живот пред себе си. Ямполски смята, че биха били по-добре, ако не строят усърдно суперинтелигентност, а се концентрират върху тесни AI инструменти за решаване на специфични проблеми.
Пример: Добре, моята компания лекува рак на гърдата. Толкова. Печелим милиарди долари. Всички са щастливи. Всички се възползват. Това е победа. Все още сме в контрол днес.
Протести и активизъм:
Има хора, които протестират – Stop AI, Pause AI. Те блокират офисите на OpenAI седмично, месечно. Ако можете да го доведете до достатъчно голям мащаб, където мнозинството от населението участва, това би могло да повлияе.
Критичният въпрос: Защо да се опитваме, ако е невъзможно?
Водещият задава логичен въпрос: Ако контролът е невъзможен и хора продължават да се стремят към суперинтелигентност, не е ли безсмислено?
Отговорът на Ямполски е нюансиран:
Опитвам се да докажа, че е конкретно невъзможно. Веднъж като установим, че нещо е невъзможно, по-малко хора ще губят времето си, твърдейки, че могат да го направят, и ще търсят пари.
Но променя какво правим. Ако знаем, че е невъзможно да го направим правилно, тогава този директен път на просто "създай го колкото се може по-бързо" става самоубийствена мисия. Надяваме се по-малко хора ще го преследват.
Може да отидат в други посоки:
Строй полезни инструменти. Спри да строиш агенти. Строй тесна суперинтелигентност, не обща.
Изборът пред нас
Д-р Роман Ямполски оставя ясно послание: Все още сме в контрол днес. Не е свършено, докато не е свършено. Можем да решим да не строим обща суперинтелигентност.
Неговите заключителни думи са мощен призив за действие:
"Нека се уверим, че не е необходимо заключително слово за човечеството. Нека се уверим, че оставаме начело, в контрол. Нека се уверим, че строим само неща, които са полезни за нас. Нека се уверим, че хората, които вземат тези решения, са поне минимално квалифицирани да го правят. Те са добри не само в науката, инженерството и бизнеса, но също имат морални и етични стандарти."
"И ако правиш нещо, което влияе на други хора, трябва да поискаш тяхното разрешение, преди да го направиш."
Ако имаше един бутон, който щеше да спре всички AGI и суперинтелигентни проекти (но не и тесен AI), Ямполски би го натиснал без колебание. Това, което имаме днес, е страхотно за почти всичко. 99% от икономическия потенциал на настоящата технология не е бил разгърнат.
Правим AI толкова бързо, че няма време да се разпространи през индустрията, през технологията. Можем да го правим десетилетия, без да се налага да създаваме суперинтелигентност колкото е възможно по-бързо.
Размисъл
Това интервю не е просто предупреждение. То е фундаментален призив за преосмисляне на това как подходим към най-мощната технология, която някога сме създавали. Докато компаниите са в надпревара за милиарди долари, докато геополитическата конкуренция подхранва develop‑at‑all‑costs менталитет, гласове като този на д-р Ямполски ни напомнят:
има неща по-важни от печалба, от власт, от да бъдеш първи.
Има оцеляването на човешката цивилизация.
Въпросът не е дали AI ще промени света. Той вече го прави. Въпросът е:
Ще бъдем ли достатъчно мъдри, за да контролираме посоката на промяната, преди тя да стане необратима?
Видео източник: The Diary Of A CEO - Dr. Roman Yampolskiy Interview:
https://www.youtube.com/watch?v=UclrVWafRAI
