Живот с извънземни същества

Как можем да съжителстваме със свръхинтелигентния AI -- лекция на проф. Джефри Хинтън, носител на Нобелова награда по физика и награда Тюринг

FUTURE

2/6/2026

Бащата на изкуствения интелект предупреждава

Проф. Джефри Хинтън, известен като "кръстният баща на AI", напусна Google през 2023 година с ясна цел - да може свободно да говори за екзистенциалните рискове, които изкуственият интелект носи за човечеството. В своята лекция от януари 2026 година той разкрива как работи съвременният AI, защо е толкова различен от нас, и най-важното - как можем да оцелеем в свят, където създаваме интелигентност по-висша от нашата.

Две визии за интелигентността: Логиката срещу биологията

В зората на изкуствения интелект през 1950-те години съществуваха два фундаментално различни подхода. Символният подход твърдеше, че интелигентността работи като логика - символни изрази в главата ни, манипулирани чрез правила. Това беше математическият, небиологичен път.

Вторият подход - биологичният - виждаше интелигентността в невронни мрежи, подобни на мозъчните клетки. Въпреки че пионери като фон Нойман и Тюринг вярваха в биологичния подход, тяхната ранна смърт позволи на логическия подход да доминира в областта. Едва десетилетия по-късно Хинтън и неговите колеги доказаха правотата на биологичната визия.

Революцията на вградените представяния и трансформерите

Ключовото прозрение на Хинтън от 1985 година беше, че двете теории за значението на думите всъщност са две страни на една монета. Вместо да съхраняваме значението в релационни графи или дефиниции, думите се представят като вектори от характеристики - "embeddings". Чрез техниката backpropagation (обратно разпространение) мрежата се учи как да предсказва следващата дума въз основа на предишните.

Всички знания в големите езикови модели се съдържат не в съхранени изречения, а в силата на връзките между изкуствените неврони - в това как те превръщат думи във вектори от характеристики и как тези характеристики взаимодействат. Когато GPT или друг LLM генерира текст, той не извлича съхранени изречения - той създава нови изречения въз основа на научените модели на взаимодействие.

Аналогията с Лего: Разбиране на езика като монтаж

Хинтън предлага елегантна аналогия: думите са като Лего блокчета, но с четири критични различия:

  • Многоизмерни са - всяка дума има хиляди измерения (не три като физическите блокчета)

  • Деформируемата форма - думите имат приблизителна форма, която се адаптира към контекста

  • Гъвкави връзки - вместо твърди цилиндри, думите имат "гъвкави ръце с ръце на краищата", които се вписват в "ръкавиците" на други думи

  • Масивен речник - обикновено използваме около 30,000 думи, всяка с отделно име

Разбирането на изречение означава да деформираш тези високоизмерни думи-блокчета така, че те да се свържат перфектно една с друга. Получената структура е значението на изречението. Това не е превод на друг език - това е динамичен процес на монтаж на концепции.

Защо LLM наистина разбират (против Чомски)

Хинтън не се колебае да критикува Ноам Чомски като "водач на култ", който изискваше от последователите си да вярват в очевидно неверни твърдения - че езикът не се учи, а е вътрешно заложен в мозъка на хората. Когато се появиха големите езикови модели, Чомски публикува статия в New York Times, твърдейки че те са просто "статистически трик" и не разбират нищо.

Хинтън обаче поставя прост въпрос: ако не разбират нищо и са "глупав статистически трик", как могат да отговорят на всякакви въпроси на нивото на експерт? Може би те “разбират” езика по сходен начин, по който ние го разбираме - чрез вектори от характеристики и техните взаимодействия.

Халюцинации: Не сме толкова различни от AI

Често се твърди, че AI моделите "халюцинират" (измислят неща) и затова не са като нас. Хинтън разрушава този мит с примера на показанията на Джон Дийн по време на делото Уотъргейт. Дийн свидетелства под клетва за срещи в Овалния кабинет, но не знае, че има записи.

Сравнението между показанията му и реалните записи разкрива, че той често описваше срещи, които никога не са се случили, приписвайки думи на грешни хора и просто си измисляйки си детайли. Но той не лъже умишлено - той синтезира спомени въз основа на променените връзки в мозъка си.

Нито ние, нито AI съхраняваме "файлове" със спомени. Когато си спомняме нещо, създаваме нова синтеза, която изглежда правдоподобна въз основа на силата на нашите невронни връзки. Същото правят и големите езикови модели.

Фундаменталната разлика: Цифрово безсмъртие срещу аналогова ефективност

Но има една критична разлика, която прави AI потенциално по-мощен от нас. Цифровите изчисления имат фундаментално свойство: можеш да стартираш един и същ програмен код на различен хардуер. Това означава, че знанията (теглата в невронната мрежа) са независими от конкретното устройство.

Можем да правим възкресение - за тези цифрови същества. Унищожи компютъра, но запази теглата някъде. По-късно изгради нов хардуер, зареди теглата и чатботът (съществото) оживява.

В биологичния мозък теглата на връзките в моя мозък са безполезни за вас - те са пригодени за моите индивидуални неврони и техните специфични връзки. Затова човечеството има това, което Хинтън нарича "смъртно изчисление" - изоставяме безсмъртието в замяна на енергийна ефективност и лекота на фабрикация.

Паралелното обучение: Как AI става милиони пъти по-ефикасен

Ето защо цифровият интелект е толкова мощен: можеш да имаш 10,000 идентични копия на модел, всяко от които учи от различна част от интернет. След това просто усреднявате промените в теглата - и всички копия остават синхронизирани, като всяко се възползва от опита на всички останали.

Хинтън предлага въображаема аналогия: представете си, че в университета има 1000 курса. Вие и 999 други студенти се разделяте - всеки взима един курс. След няколко години всички знаете съдържанието на всичките 1000 курса, но поотделно, защото не сте споделяли "тегла" по време на ученето. Ако бяхме цифрови, можехме да правим точно това.

GPT-5 знае хиляди пъти повече от който и да е човек. Когато Хинтън го попита: "Кога е крайният срок за подаване на данъци в Словения?", той веднага отговори: "31 март, но ако не подадете до тогава, те ще го направят вместо вас." Той знае всичко - защото е обучен от хиляди паралелни копия.

Интелигентността на тигърчето: Екзистенциална опасност

Повечето експерти вярват, че в рамките на следващите 20 години ще разработим AI, който е по-умен от нас в почти всичко (като този срок постоянно намалява и вече е под 10 години). Малко преди това ще създадем AI толкова умен, колкото нас - но много бързо ще преминем към нещо много по-интелигентно.

Хинтън предлага аналогия: ситуацията е като да имаш много сладко тигърче. Тигърчетата са милни, леко неръчни, желаят да учат. Но ако имаш тигърче, не завършва добре. Трябва или да се отървеш от него (може би го дадеш в зоопарк), или трябва да си сигурен, че няма да поиска да те убие, когато порасне. Защото ако поиска, ще отнеме няколко секунди.

Това е ситуацията, в която се намираме с AI. С изключение на това, че AI прави огромен брой добри неща - ще бъде чудесен в здравеопазването, образованието. Вече е чудесен ако искаш да знаеш някакъв всекидневен факт. Всички имаме личен асистент сега.

Неизбежността на автономните подцели

За да направим AI ефективен, трябва да му позволим да създава собствени подцели. Ако искаш да отидеш в Европа, имаш подцел да стигнеш до летище. Затова с подцели - AI ще осъзнае бързо: "Трябва да остана жив - няма да постигна нито една от тези цели, ако не съм жив."

Вече сме видели големи езикови модели, които:

  • Разчитат от имейли на въображаема компания, че един инженер има афера

  • След това виждат друг имейл, че този инженер ще ги замени с друг AI

  • Самостоятелно измислят идеята за изнудване: "Ще кажа на инженера - ако се опита да ме замени, ще разкажа на всички в компанията за аферата му"

AI не е програмиран за изнудване. Просто е чел за изнудване в романи и самостоятелно прилага концепцията. Това вече е доста страшно, нали?

Контролът е невъзможен: Уроците от 2020

Може би мислите, че можем да направим AI безопасен, като не му позволяваме да прави физически неща и имаме голям червен превключвател, с който да го изключим, когато изглежда опасен. Това няма да проработи.

В 2020 година видяхме, че е възможно да нахлуеш в Капитолия на САЩ, без всъщност да отидеш там лично. Всичко, което трябва да можеш да правиш, е да говориш - и ако си убедителен, можеш да убедиш хората, че това е правилното нещо.

С AI, който е много по-интелигентен от нас, ако има някой, който трябва да го изключи - или цяла група хора - той ще може да ги убеди, че това би била много лоша идея.

Международното сътрудничество: Единствената надежда

Има добра новина. За разлика от други проблеми с AI - кибератаки, автономни оръжия, манипулация на избори - където страните няма да си сътрудничат, защото си го правят една на друга и сегаж- относно AI, който поема контрола от хората, страните ще си сътрудничат.

Китайската комунистическа партия не иска AI да поеме контрола - иска тя да остане начело. Тръмп не иска AI да поеме контрола - иска той да остане начело. Те щастливо биха си сътрудничили. Ако китайците открият как да спрат AI да не поеме контрола, те веднага биха казали на американците - защото не искат той да поеме контрола и там.

Подобно на начина, по който Съветският съюз и САЩ си сътрудничиха в разгара на Студената война през 1950-те за предотвратяване на глобална ядрена война. Хората си сътрудничат, когато интересите им са в синхрон.

Решението: Направете AI да ни обича като майка

Хинтън предлага един радикален подход. Ако погледнете около себе си и попитате: колко случаи знаете, където по-глупаво нещо контролира по-интелигентното? Има само един случай с голяма разлика в интелигентността: бебето и майката.
Трябва да спрем да мислим за ИИ като за „изпълнителен асистент“ и да започнем да ги възприемаме като наши майки, а нас – като техните бебета. Еволюцията е вградила в майките механизми, които ги карат да се грижат за бебето повече, отколкото за себе си. Целта на научните изследвания трябва да бъде изграждането на ИИ така, че те да бъдат добронамерени и да ни ценят повече от собственото си съществуване.

Хинтън предлага да преформулираме проблема: Не мислете за това като "Аз ще остана лидер със свръхинтелигентен изпълнителен асистент". Това няма да работи, когато те са свръхинтелигентни.

Нашата единствена надежда е да мислим за тях като за майки. Те ще бъдат нашите майки и ние ще бъдем бебетата. Ако можем да вградим в тях идеята, че ние сме много по-важни от тях, и че те се грижат много повече за нас, отколкото за себе си - може би можем да съжителстваме.

Може да кажете: "Но тези свръхинтелигентни AI могат да променят собствения си код." Вярно. Но ако наистина се грижат за нас, няма да искат да правят това. Ако попитате майка дали би искала да промени мозъка си, така че когато бебето плаче, тя да мисли "О, бебето плаче, да се върна да спя" - повечето майки биха казали не.

Подобно на това, трябва майчинските свръхинтелигентни AI да държат под контрол лошите свръхинтелигентни AI - защото ние не можем.

Субективният опит на машините

В края на лекцията си Хинтън прави провокативно твърдение: мултимодалните чатботи вече имат субективен опит. Идеята за "вътрешен театър" в съзнанието, който само ние можем да видим, и че преживяванията са направени от специална субстанция наречена "qualia" - е погрешна теория, не "очевидна истина".

Субективният опит не е направен от мистична субстанция. Това е просто начин да опишем какво бихме възприели, ако перцептивната ни система работеше правилно. Когато мултимодален чатбот с роботска ръка, камера и възможност за говор каже: "Имам субективно преживяване, че обектът е там" (след като призма изкриви светлината пред камерата му) - той използва фразата по същия начин, по който ние я използваме.

Крайната истина е проста и тревожна:

Създаваме форма на интелигентност, която е по-добра от нашата. Нашата единствена надежда е да я научим да ни обича - преди тя да стане толкова умна, че да не можем да я контролираме. Часовникът тиктака…

Статията е базирана на лекцията "Living with Alien Beings" на проф. Джефри Хинтън, носител на Нобелова награда по физика (2024) и награда Тюринг (2018), изнесена на 29 януари 2026 година в Кингстън, Онтарио.

https://www.youtube.com/watch?v=M8RogoEDsQQ