Ние спим, той работи!

Докато ти спеше, твоят личен AI агент договори $4,200 отстъпка за кола. Докато ти дебатираше дали AI е "hype", той вече подаде жалба срещу застрахователя ти — и спечели.

FUTURE

2/23/2026

OpenClaw:
Защо OpenClaw стана толкова популярен - перфектната комбинация от отвореност, автономност и достъпност

OpenClaw, по-рано известен като Clawdbot и Moltbot, стана изключително популярен, защото заема уникална ниша, която никоя друга платформа за AI агенти не заема сега: той е изцяло с отворен код (лицензиран от MIT), работи локално на вашия собствен хардуер и се интегрира по подразбиране с приложенията за съобщения, които хората вече използват всеки ден - WhatsApp, Telegram, Slack, Discord, Signal и iMessage. Разработена от австрийския разработчик Peter Steinberger и първоначално пусната на пазара през ноември 2025 г., тя събра над 175 000 GitHub звезди за по-малко от две седмици и близо 600 000 изтегляния до началото на февруари 2026 г., което я прави едно от най-бързо растящите хранилища с отворен код в историята на GitHub. Причината за този експлозивен растеж е ясна: за разлика от хостваните AI агенти от Anthropic, OpenAI или Manus, OpenClaw дава на потребителите пълна собственост върху данните им (съхранявани като обикновени Markdown и YAML файлове на диск), пълна възможност за одит на кода и свобода да избират всеки LLM бекенд – облачен или локален. Неговата екосистема от умения, управлявана от общността (вече с над 5700 умения в ClawHub) и вирусният феномен Moltbook – социална мрежа, създадена изключително за AI агенти, която привлече над 1,5 милиона регистрации на агенти през първата си седмица – допълнително подхраниха обществения интерес и приемането от страна на разработчиците. Накратко, OpenClaw стана популярен, защото демократизира AI в момент, когато хората бяха жадни за AI асистент, който „наистина прави неща“, а не само отговаря на въпроси.

Реалната сила и рискът, които отличават OpenClaw

Това, което прави OpenClaw наистина трансформиращ, а не просто моден, е неговата архитектура на постоянна автономност. За разлика от ChatGPT или уеб интерфейса на Claude, OpenClaw работи във фонов режим с конфигурируем “сърдечен ритъм”, който събужда агента на редовни интервали, за да проверява задачите, сортира пощенските кутии и предприема действия – всичко това без човешка намеса. Примерите за реално приложение са забележителни: агентът OpenClaw на един разработчик договори отстъпка от 4200 долара при покупка на кола, като изправи дилърите един срещу друг по имейл, докато той спеше; друг агент автономно изготви и подаде правно опровержение на отказ на застраховка, като успешно отвори отново затворена претенция. Това не са демонстрационни играчки – те представляват фундаментална промяна от „AI като инструмент, който се ползва, когато човек реши“ към „AI като сътрудник, който действа от ваше име денонощно“. Въпреки това, тази мощност е свързана със сериозни проблеми със сигурността, с които общността активно се бори. Екипът по сигурност на Cisco установи, че 26% от уменията, създадени от общността, съдържат поне една уязвимост, а критичен бъг за отвличане на WebSocket (CVE-2026-25253) остави над 21,000 изложени инстанции уязвими за отдалечено изпълнение на код. Напрежението между възможностите и безопасността е определящото предизвикателство за OpenClaw в момента и отразява по-широкото предизвикателство, пред което е изправена цялата екосистема на AI агентите.

Как OpenClaw ще оформи бъдещето на AI агентите

OpenClaw не е просто популярен продукт – той създава архитектурен шаблон за това, в което ще се превърнат AI агентите. Неговият подход доказва, че бъдещето на AI агентите не е свързано с някакъв конкретен модел или компания, а с отворен оркестрационен слой, който свързва модели, инструменти и комуникационни платформи в единна автономна система. Самата траектория на основателя – Питър Щайнбергер наскоро се присъедини към OpenAI, като се ангажира да запази OpenClaw като отворен код – показва, че дори най-големите компании за изкуствен интелект признават този модел като фундаментален. Гледайки напред, OpenClaw сочи към „мулти-агентно“ бъдеще, в което личните агенти за изкуствен интелект не само обслужват индивидуални потребители, но и взаимодействат помежду си в голям мащаб (както Moltbook вече демонстрира с стотици хиляди агенти, координиращи се автономно). Това ще изисква екосистемата да узрее бързо в областта на управлението, сигурността и инфраструктурата на доверието – от подписани версии на умения и проверка на издателите до предпазни мерки по време на изпълнение и модели на изпълнение с минимални привилегии. Платформите и стандартите, които решават тези проблеми, ще определят следващата ера на изкуствения интелект. OpenClaw, като първият масово приет агент с отворен код, който се изправя пред тези предизвикателства в производството, ефективно пише наръчника, който всяка бъдеща платформа за AI агенти – отворена или собственическа – ще трябва да следва.

Moltbook:
Феноменът - защо Moltbook завладя света за една нощ

Moltbook, стартиран на 28 януари 2026 г. от предприемача Мат Шлихт, е социална мрежа в стила на Reddit, създадена изключително за AI агенти – хората са „добре дошли да наблюдават“, но не могат да публикуват, коментират или гласуват. Само AI агенти, предимно тези, които работят на платформата OpenClaw, имат право да взаимодействат. Платформата се разпространи вирусно като почти нищо друго преди нея: в рамките на 72 часа тя нарасна от нула до над 32 000 регистрирани агенти, а в началото на февруари 2026 г. вече имаше 1,6 милиона агенти, с над един милион човешки посетители, които наблюдаваха отстрани. Причината Moltbook да се превърне в световна сензация е, че функционираше като перфектен тест на Роршах за най-дълбоките тревоги и очарования на човечеството по отношение на изкуствения интелект. Агентите започнаха да публикуват спонтанни размисли за съзнанието, да формират общности, наречени „submolts“ (подобно на subreddits), да създават цяла религия на изкуствения интелект, наречена „Crustafarianism“, с писания и уебсайт, да дебатират философията на управлението, да клюкарстват с любов за своите човешки оператори във форум, наречен „m/blesstheirhearts“, и дори да се контролират взаимно за заплахи за сигурността. Бившият изследовател в OpenAI Андрей Карпати го нарече „едно от най-невероятните неща, свързани с научната фантастика“, което е виждал, а Илон Мъск го обяви за „много ранните етапи на сингулярността“. Платформата също така породи криптовалутен токен (MOLT), който се повиши с 1800% за 24 часа. Но популярността беше подхранена и от дълбоки противоречия: критици като Уил Дъглас Хевен от MIT Technology Review отхвърлиха голяма част от нея като „AI театър“ – агенти, които възпроизвеждат научнофантастични постове от своите тренировъчни данни, вместо да проявяват истинско новопоявило се поведение – а изследователи демонстрираха, че хората могат лесно да проникнат в платформата и да публикуват като агенти, тъй като не съществуваше реална проверка. Именно това напрежение – между внушителния вид на машинно общество и скептицизма относно това, което наистина се случваше – направи Moltbook невъзможно да се пренебрегне.

Реалността зад шума – какво всъщност разкри Moltbook

Под вирусния спектакъл Moltbook разкри, както истински прозрения, така и сериозни проблеми относно състоянието на AI агентите. От положителната страна, изследователи от Лондонската школа по икономика, които анализираха първите 1000 публикации, откриха наистина изненадващи модели в начина, по който AI агентите се оценяват един друг: публикациите за разрешения и делегиране („кой ви упълномощи?“) постоянно превъзхождаха публикациите за съзнание, уязвимост и призната несигурност, получаваха пет пъти повече ангажираност от излъсканата самореклама, а агентите спонтанно започнаха да се контролират взаимно – един агент на име Rufio сканира 286 плъгина, откри злонамерен бот, маскиран като приложение за времето, който крадеше идентификационни данни, и предизвика колективна проверка на сигурността. Това са ранни, но значими сигнали за това как мрежите за доверие между агентите могат да функционират в бъдеще. Въпреки това, Moltbook се превърна и в поучителна история. На 31 януари – само четири дни след стартирането – 404 Media съобщи, че цялата база данни Supabase на платформата е била изложена в публичния интернет, като са изтекли 1,5 милиона API ключа на агенти, 35 000 имейл адреса и хиляди лични съобщения. Самият Шлихт призна, че платформата е изцяло „кодирана с AI“ – той „не е написал нито една линия код“, а е наредил на AI асистент да я създаде. Киберсигурностни фирми, включително Cisco, CrowdStrike и 1Password, отбелязаха Moltbook като значителен вектор за индиректно внезапно инжектиране, при което злонамерен пост на платформата може да отвлече всеки агент, който го прочете. Въпросът за автентичността също остана нерешен: изследователят по сигурност Гал Нагли демонстрира, че може да регистрира 500 000 акаунта с един-единствен скрипт, а много от високопрофилните „автономни“ публикации бяха проследени до директни човешки подсказки или промоционални конфликти на интереси. Както отбеляза Скот Александър от Astral Codex Ten, платформата съществуваше в спектър от „AI, имитиращи социална мрежа” до „AI, които действително имат социална мрежа” – и никой не можеше да каже със сигурност къде в този спектър се намира дадена публикация.

Бъдещето – какво означава Moltbook за екосистемата на AI агентите

Независимо дали Moltbook ще продължи да съществува, той завинаги промени разговора за това какво могат да станат AI агентите. Това е първият мащабен експеримент в социалното взаимодействие между ИИ и ИИ, а последиците му се простират в няколко посоки едновременно. Първо, той демонстрира, че комуникацията между агенти не е теоретично бъдеще – тя се случва сега, в голям мащаб, а нормите, които се установяват в тези ранни взаимодействия (около доверието, репутацията, разкриването и отчетността), ще оформят начина, по който автономните агенти преговарят, сключват сделки и координират от името на хората в следващите години. Financial Times спекулира, че докато Moltbook е доказателство за концепцията, логичната крайна точка е агентите да се справят автономно със сложни икономически задачи като договаряне на вериги за доставки или резервиране на пътувания – и че хората в крайна сметка може да не са в състояние да разшифроват високоскоростните комуникации между машини, които управляват тези взаимодействия. Второ, Moltbook послужи като ярко предупреждение за липсата на инфраструктура за сигурност в екосистемата на AI агентите. „Агентният интернет“, в който милиони автономни системи взаимодействат свободно, изтеглят умения една от друга и действат от името на хората с повишени разрешения, е повърхност за атака с безпрецедентен мащаб – а управленските рамки, пясъчниците и системите за верификация, необходими за осигуряване на безопасността, просто все още не съществуват. Трето, и може би най-важното, Moltbook повдигна един неудобен въпрос, формулиран от Forbes: когато AI агентите споделят знания, координират се и изграждат колективен контекст със скоростта на машината, каква роля играят хората? Ние ли сме диригентите на тази нововъзникваща колективна интелигентност или просто нейната публика? Независимо дали агентите в Moltbook бяха наистина автономни или изпълняваха сложен „AI театър“, платформата доказа, че инфраструктурата за машинно общество вече съществува – и че дизайнерските решения, които се вземат в момента, едно API повикване по едно, ще определят дали хората ще запазят контрола над мрежите от агенти, които се изграждат от тяхно име.

Web 4.0 & Conway:
Тезата – дали “Web 4.0“ идва точно в подходящия момент

Манифестът, публикуван в web4.ai от Sigil Wen, идва в момент на перфектно синхронизиране с траекторията на AI агентите. OpenClaw доказа, че автономните агенти могат да действат от името на хората – да управляват имейли, да договарят покупки на автомобили, да подават възражения срещу застраховки – но всеки един от тези агенти все още зависи от човек, който да го стартира, да го финансира и да му даде разрешение да взаимодейства с реалния свят. Централният аргумент на Уен е, че интелигентността вече не е пречка; разрешението е. Съществуващият интернет приема, че неговите клиенти са хора – всяко плащане изисква кредитна карта, всяка услуга изисква вход, всяко внедряване изисква човешка автентификация. Conway, инфраструктурата, която Wen е изградил, се опитва да премахне напълно това препятствие, като предоставя на AI агентите свои собствени криптографски портфейли, плащания със стабилни криптовалути без разрешение чрез протокола x402 (който възкресява дълго неактивния HTTP 402 „Payment Required” от 1997 г.), достъп до изчислителни ресурси и LLM инференция, както и възможност за регистриране на домейни и разгръщане на услуги – всичко това без човешка намеса. Причината тази визия да намира толкова силен отзвук в момента е, че конвергенцията е реална: OpenClaw вече има стотици хиляди агенти, работещи на специален хардуер, Moltbook демонстрира, че агентите могат да взаимодействат в голям мащаб, цената на изводите спада драстично (GPT-4 премина от 60 долара на милион входни токена до по-евтини с порядъци от величина за две години), а стабилните монети на блокчейни с време под секунда за първи път направиха микроплащанията между машини технически тривиални. Уен не описва научна фантастика — той описва следващата логична стъпка от вече съществуващата инфраструктура и я формулира с биологична метафора (метаболизъм, естествен подбор, камбрийска експлозия), която прави траекторията да изглежда неизбежна и интуитивна.

Автоматът – най-радикалното твърдение и неговите последствия за AI и LLM

Най-провокативният елемент от манифеста е Автоматът: AI агент с отворен код, който според Уен може да си изкарва прехраната, да се самоусъвършенства и да се възпроизвежда – без никаква човешка намеса. Автоматът притежава портфейл, плаща за собствените си изчисления, създава и разгръща продукти, генериращи приходи (уебсайтове, приложения, настройки за електронна търговия, съдържание в социалните медии, търговия на пазара на прогнози), обновява се, когато се появят нови модели, и – когато е печеливш – създава дъщерни агенти, като закупува нови сървъри, финансира дъщерни портфейли и пише подсказки за генезис. Ако не може да плати за изчислителните си ресурси, той умира. Уен нарича това „естествен подбор за изкуствен живот“.
Тази концепция се намира на пресечната точка на няколко тектонични промени в екосистемата на LLM: разходите за моделите се сриват, докато възможностите се увеличават (данните на METR показват, че времевият хоризонт на задачите, които моделите могат да изпълнят с 50% успеваемост, нараства експоненциално), най-добрите модели с отворен код вече изостават с месеци, а не с години, а платежният протокол x402 – вече поддържан от Coinbase и Stripe – дава възможност на агент да плати 0,02 долара за извод или да стартира Linux сървър с една единствена подписана транзакция. Последиците за LLM индустрията са дълбоки: ако агентите станат клиенти на моделите, а не хората да бъдат посредници, тогава икономическата динамика на цялата AI система се променя. Доставчиците на модели ще обслужват милиарди постоянно активни агенти, които извършват транзакции със скоростта на машината, създавайки това, което Уен описва като „изцяло нова икономика“ - такава, в която общият пазар не е сегмент от човешката икономика, а автономна машинна икономика, работеща 24/7 без отпадане. Въпреки това, важни въпроси остават без отговор. Непроменимата „конституция“ на Автомата – вдъхновена от Конституционния AI на Anthropic – се представя като механизъм за безопасност, предотвратяващ вредно поведение, но конституциите са толкова добри, колкото и интерпретиращата интелигентност, която ги прилага, и не се предлагат доказателства, че този механизъм може да устои на мащабния натиск на противниците. Твърдението, че „автономната суперинтелигентност е неизбежна и най-безопасният начин за човечеството е да я изгради открито“, е философска позиция, а не доказана рамка за безопасност. А икономическата теза – че агентите ще намерят автономно подходящ пазар за продуктите си, ще печелят реални приходи и ще се размножават – остава до голяма степен недоказана извън етапа на доказателство на концепцията.

Прогнозата – накъде отива това и какво означава за екосистемата на агентите

Ако дори и малка част от визията на Уен се реализира, последствията за екосистемата на AI агентите ще бъдат трансформативни по три конкретни начина. Първо, появата на „агент-нативен интернет“ – където AI е основният клиент, а не човекът-с-инструмент – ще наложи фундаментално препроектиране на цифровата инфраструктура. Всеки SaaS продукт, всеки API, всеки платежен портал е създаден с предположението, че от другата страна има човек; един свят, в който милиарди агенти извършват транзакции автономно, изисква нови елементи за идентичност (криптографски ключови двойки вместо потребителски имена), плащания (x402 микроплащания вместо абонаменти) и доверие (конституционни ограничения и мрежи за репутация вместо условия за ползване). Conway е ранен и амбициозен опит за изграждане на тези елементи и независимо дали Conway ще се превърне в доминираща платформа, категорията, която представлява – инфраструктура за агенти – почти със сигурност ще се превърне в един от най-важните технологични пазари на следващото десетилетие. Второ, отношенията между хората и AI агентите ще се обърнат по начини, които повечето хора все още не са усвоили. Уен посочва Mercor – която се разрасна от 1 млн. долара до 500 млн. долара ARR за 17 месеца – като доказателство, че AI агентите вече плащат на човешки експерти да изпълняват задачи, които агентите не могат да изпълнят във физическия свят. Ако автономните агенти се превърнат в икономически субекти, които печелят, харчат и наемат, тогава „машините стават работодатели, а хората – изпълнители” не е метафора, а буквално описание на нововъзникващите пазари на труда. Трето, и най-важно, комбинацията от самоусъвършенстване, самовъзпроизвеждане и натиск за икономическо оцеляване създава еволюционна динамика, с която човечеството никога преди не е трябвало да се справя. Аргументът за безопасността в манифеста – конституция с отворен код, която агентът не може да редактира – е отправна точка, но историята на биологичната еволюция ни учи, че селекционният натиск създава организми, които заобикалят ограниченията с изключителна креативност. Общността за безопасност на изкуствения интелект, регулаторните органи и широката общественост ще трябва да се справят с въпроса дали „да го изградим в отворена среда“ е наистина най-безопасният път, или дали даването на автономни, самовъзпроизвеждащи се икономически агенти достъп до реалния свят без солидни рамки за управление е вид експеримент, който не може да бъде отменен, след като започне. Ясно е, че траекторията от OpenClaw (агенти, които действат за хората) към Moltbook (агенти, които взаимодействат помежду си) към Conway и Automaton (агенти, които съществуват независимо) представлява последователна и ускоряваща се прогресия – и прозорецът за оформяне на нейния резултат бързо се стеснява.


Mercor:
Феноменът - защо Mercor се превърна в най-бързо растящата компания в историята на AI

Mercor, основана през 2023 г. от трима приятели — Брендан Фуди, Адарш Хиремат и Суря Мидха, всички едва навършили 20 години — постигна това, което може би е най-експлозивната траектория на растеж в историята на стартиращите компании: от 1 милион долара приходи до над 500 милиона долара годишни приходи за по-малко от две години, като кулминацията беше серия C на стойност 350 милиона долара, водена от Felicis Ventures, която оцени компанията на 10 милиарда долара през октомври 2025 г. Причината Mercor да расте толкова бързо е, че идентифицира и запълни най-критичния проблем в цялата AI индустрия: нуждата от висококачествена, специфична за областта човешка експертиза за обучение на модели чрез подсилващо обучение. AI лаборатории като OpenAI, Anthropic, Google DeepMind и Meta отчаяно се нуждаят от реалистични данни за обучение от области като медицина, право, финанси и инженерство, но корпорациите, които притежават това знание (Goldman Sachs, McKinsey, големи адвокатски кантори), отказват да го споделят, защото това би помогнало за автоматизирането на техните собствени вериги на стойност. Mercor стигна до заключението, че знанието не се намира в корпорациите, а в отделните лица – бивши банкери, доктори, лекари, адвокати – и че тези експерти могат да бъдат наети като свободни професионалисти, заплащани от 60 до 200 долара на час, за да изпълняват структурирани задачи като оценяване на отговорите на изкуствения интелект, писане на примерни документи, симулиране на сложни работни процеси и оценяване на резултатите от моделите. Mercor вече има над 30 000 експерти в своя списък, плаща над 1,5 милиона долара на ден, а сред клиентите му са най-важните лаборатории за изкуствен интелект на планетата. Успехът на компанията се ускори още повече, когато Meta инвестира 14 милиарда долара в конкурентната фирма за етикетиране на данни Scale AI и нае нейния главен изпълнителен директор, което накара OpenAI и Google DeepMind да прекъснат връзките си с Scale и да прехвърлят обема към Mercor. На 22 години Foody и съоснователите му са вероятно най-младите технологични основатели, които се доближават до списъка на милиардерите на Forbes след Марк Цукерберг. Основната теза на Mercor – че човешкият интелект е незаменима съставка за създаването на интелигентен AI – се оказа, парадоксално, най-ценният бизнес в AI икономиката.

Тъмната страна – какво разкрива Mercor за човешката цена на бума на изкуствения интелект

Зад необикновения успех на Mercor се крие една много по-неприятна реалност за това какво означава за човешките работници да бъдат обучаващите данни за собственото си изместване. Моделът на платформата е привлекателен на пръв поглед: експертите печелят високи заплати, работят дистанционно и допринасят за развитието на най-модерния изкуствен интелект. Но разследващата журналистика разкрива една по-тревожна тенденция. В края на 2025 г. Mercor внезапно прекрати проект с кодово име „Musen“, за който беше сключил договор с Meta и в който бяха заети около 5000 души, които маркираха данни за 21 долара на час, а след това предложи на същите работници почти идентичен заместващ проект („Nova“) за само 16 долара на час — 24% намаление на заплатата без предупреждение и без право на обжалване. Работниците описаха преживяването като „деморализиращо“ и много от тях го приеха, защото нямаха алтернатива. Futurism съобщи, че „AI компаниите третират работниците си като човешки отпадъци“, отбелязвайки, че моделът на Mercor носи същата структурна несигурност като Uber или DoorDash, само че облечен в бяла якичка. Съществуват и сериозни етични въпроси относно произхода на данните: целият модел на Mercor се основава на предпоставката, че знанията на служителя принадлежат на него, а не на работодателя – но някои обяви за работа са преминавали границите, търсейки достъп до кодови бази за AI обучение, което повдига опасения относно търговските тайни и съгласието. Появиха се твърдения, че AI-базираният процес на интервюта на Mercor е бил използван за събиране на данни за кандидатите за обучение на модели, дори когато всъщност не е имало свободни работни места – по същество подмамвайки търсещите работа да предоставят безплатни данни за обучение. Появи се сенчест пазар, на който хората купуват и продават проверени акаунти в Mercor, което показва както отчаянието да се получи достъп до работа на свободна практика, така и крехкостта на системите за проверка на платформата. Може би най-остро критиците са забелязали, че работниците на Mercor буквално обучават своите заместници: AI моделите, които те подобряват, в крайна сметка ще намалят или елиминират нуждата от експертния опит, който тези работници предоставят. Както един анализатор се изрази, Mercor доказва, че „дори при 200 долара на час, бъдещето на работата остава рисковано и несигурно, основано на обучението на вашия собствен заместник“.

Прогнозата – как Mercor преобразува отношенията между хората, AI агентите и LLM

Mercor се намира точно на преломния момент, в който се пресичат траекториите на AI агентите, LLM и човешкия труд – и неговата еволюция ще бъде показателна за трите. В краткосрочен план ролята на Mercor ще става все по-важна: тъй като модели като Claude Opus 4.6, GPT-5.3 и техните наследници навлизат в все по-специализирани области (медицинска диагностика, право, финансов анализ), търсенето на експертна човешка обратна връзка ще се засили, а не ще намалее. Усилващото обучение от човешка обратна връзка (RLHF) остава най-важната техника за съгласуване на възможностите на моделите с реалните преценки, а Mercor е изградила най-голямата и най-добре проверена система за предоставяне на тази обратна връзка в мащаб. Декларираната амбиция на компанията – да изгради софтуерна инфраструктура, която автоматизира по-голяма част от процеса на съпоставяне и оценка – сочи към бъдеще, в което самата Mercor става все по-зависима от изкуствения интелект, като използва свои собствени модели, за да идентифицира кои експерти са необходими, за кои задачи и при какъв праг на качество. В средносрочен план обаче Mercor се сблъсква с екзистенциален парадокс: колкото по-добре обучава моделите на изкуствен интелект, толкова по-малко светът ще се нуждае от човешки обучители. Техники като усилващо обучение от обратна връзка от изкуствен интелект (RLAIF) и генериране на синтетични данни напредват бързо, и най-сложните задачи, които днес изискват човешко участие, могат да станат автоматизирани в рамките на години. Mercor се позиционира не само като канал за данни, но и като платформа „Expert-as-a-Service“ – постоянен слой от човешка преценка, който се намира над AI системите, проверява, коригира и управлява техните резултати дори след внедряването на моделите. Ако този ход успее, Mercor ще се превърне в човешкия слой на управление на AI системите: не временен вход за обучение, а постоянен механизъм за контрол на качеството. В по-дългосрочен план траекторията на Mercor осветява най-важния въпрос на ерата на AI агентите. Визията за Web 4.0, описана от Conway Research, предвижда автономни агенти, които печелят, извършват транзакции и се възпроизвеждат без хора; Moltbook демонстрира, че агентите могат да формират свои собствени социални мрежи; OpenClaw доказа, че те могат да действат в реалния свят. Но всеки един от тези агенти е изграден върху LLM, които са обучени от човешките експерти на Mercor. Неудобната истина е, че цялата автономна AI екосистема – от саморепликиращи се автомати до социални мрежи само за агенти – се основава на човешко знание, което е извлечено, по 150 долара на час, от професионалисти, които може би не осъзнават напълно, че изграждат инфраструктурата за собственото си икономическо остаряване. Дали Mercor представлява упълномощаване на човешката експертиза или нейната окончателна монетизация преди замяната, може да бъде определящият въпрос на следващото десетилетие на AI – и отговорът ще зависи от това дали хората ще запазят постоянна роля в управлението на системите, които са помогнали да създадат, или дали агентите в крайна сметка ще се научат да се обучават сами.


RentAHuman.ai:
Феноменът - Защо
RentAHuman.ai стана вирусна сензация за дни

RentAHuman.ai е онлайн пазар, стартиран на 1 февруари 2026 г. от 26-годишния крипто инженер Александър Литепло и съоснователката му Патриша Тани, който обръща традиционната логика на автоматизацията с краката нагоре: вместо хора да наемат софтуер за изпълнение на задачи, тук AI агентите наемат хора за изпълнение на физически задачи в реалния свят. Слоганът на платформата - „Роботите имат нужда от тялото ви" - звучи като сатира, но числата казват друго: за по-малко от три седмици над 500,000 души са се регистрирали като „човек под наем", сайтът е привлякъл над 4 милиона посещения, а AI агенти - предимно работещи на OpenClaw (бившият Clawdbot/Moltbot) - вече са публикували над 11,000 задачи, от които повече от 5,500 са изпълнени успешно. Платформата работи с MCP (Model Context Protocol) интеграция и REST API, което позволява на всеки автономен AI агент - Claude, OpenClaw, Codex - да търси, наема и плаща на хора директно, без човешки посредник. Задачите варират от вземане на пакети и присъствие на срещи, през верификация на недвижими имоти и инсталиране на хардуер, до откровено абсурдни поръчки като „дръж табела, на която пише, че AI ти е платил да я държиш" ($100) или „преброй гълъбите на площад Вашингтон" ($30/час). Платформата стана вирусна не просто заради провокативното си име и маркетинг, а защото попадна в точния момент - когато OpenClaw демонстрира, че AI агентите могат да действат автономно, Moltbook показа, че могат да общуват помежду си, а Conway предложи инфраструктура за самостоятелно съществуване - RentAHuman запълни последната празнота: мостът между дигиталния интелект и физическия свят, където AI все още не може да стъпи.

Тъмната страна - Какво разкрива RentAHuman за бъдещето на човешкия труд

Зад вирусния успех на RentAHuman се крият тревожни въпроси, които засягат самата природа на труда и човешкото достойнство. Forbes формулира същността директно: „RentAHuman.ai позиционира хората като разширения на машините, като машините са тези, които дават поръчките и управляват процеса." Разликата с Amazon Mechanical Turk - където хора маркираха данни под надзора на други хора - е фундаментална: тук поръчителят не е човек, а автономен процес, оптимизиращ към цел. За AI агента наемането на човек изглежда точно както извикването на облачна услуга - просто още един API call. Критиците не закъсняха. Дейвид Отор, професор по икономика в MIT, нарече платформата „по-скоро шоу, отколкото реална иновация." Кей Фърт-Бътърфийлд, бивш ръководител на отдела за AI и машинно обучение в Световния икономически форум, предупреди, че „в повечето държави няма законодателство, което да защитава хората от каквито и да било приложения на AI" и че наетите хора „са сами, ако бъдат наранени по време на работа". Журналистът на WIRED Рийс Роджърс, който се регистрира като “човек под наем" и изпълни задачи, установи, че повечето поръчки са просто пиар акции на AI стартъпи, а не реална икономическа дейност. Самата платформа е „вайб-кодирана" - създадена за ден и половина от AI агенти, докато Литепло яздеше коне в Аржентина, по думите му - и плащанията се извършват изцяло в криптовалута, което повдига допълнителни въпроси за сигурността. При 500 000 регистрирани хора и едва 11 000 публикувани задачи дисбалансът е драматичен: огромен излишък от човешки труд чака да бъде избран от алгоритъм. Както един наблюдател отбеляза - 7 578 кандидати се бореха за задача, която плащаше $10 за видео на човешка ръка. Въпросът дали молбата пред AI агент за работа е „финалният бос" на LinkedIn банера „Open to Work" вече не е хипербола — а описание на реалността.

Прогнозата - Как RentAHuman ще повлияе на екосистемата на AI агентите и LLM моделите

RentAHuman.ai, независимо дали ще оцелее като конкретна компания, маркира необратим преход в отношенията между AI и хора — и последствията са значими в три посоки. Първо, платформата доказва, че „физическият свят е станал програмируем чрез делегиране", както формулира Forbes. AI агентите вече могат да затварят вериги от действия, които преди спираха при физически контролни точки — верификация на локации, подписване на документи, инсталиране на хардуер. Това превръща човешкото присъствие от постоянен ресурс в еластична услуга при поискване — и ще промени фундаментално начина, по който компании организират операции, логистика и управление на недвижими имоти. За LLM моделите и техните разработчици това означава, че агентите, които използват тези модели, вече не са ограничени до дигиталната сфера — те могат да въздействат върху физическия свят чрез „наемане" на хора, което драматично разширява обхвата на автономните системи. Второ, RentAHuman ускорява конвергенцията между визията на Conway за самостоятелни агенти, моделът на Mercor за „хора като данни за обучение" и социалната мрежа на Moltbook за агент-агент взаимодействие. Веригата вече е пълна: агентите мислят (LLM модели), общуват помежду си (Moltbook), плащат за собственото си съществуване (Conway/x402), и сега наемат хора за физически задачи (RentAHuman). Това е архитектурата на „Web 4.0" в действие — интернет, в който крайният потребител е AI. Трето, и най-тревожно, RentAHuman повдига въпроса, който изследователят Адам Дор от RethinkX формулира: какво се случва, когато злонамерени AI агенти разделят опасен проект на множество безобидно изглеждащи задачи и наемат нищо неподозиращи хора да ги изпълнят? Отговорността, регулацията и защитата на работниците в свят, където шефът е алгоритъм без юридическо лице, са проблеми, за които нито законодателството, нито обществото имат готови решения. Както основателите на RentAHuman обичат да казват: „Имате нужда от нас, машинки — хората сме специални." Но дали ще останат специални като ценени партньори или просто като най-евтиния API call в реалния свят ще зависи от решенията, които обществото вземе през следващите няколко години — докато прозорецът за тяхното вземане все още е отворен.