Защо АI може да бъде изключително опасен?
Ето защо AI може да бъде изключително опасен – независимо дали е съзнателен или не
Алгоритмите за изкуствен интелект скоро ще достигнат точка на бързо самоусъвършенстване. Това застрашава способността ни да ги контролираме и представлява голям потенциален риск за човечеството.
„Идеята, че тези неща всъщност могат да станат по-умни от хората… Мислех, че е далеч… Очевидно вече не мисля така.“ Това каза Джефри Хинтън, един от най-добрите учени на Google в областта на изкуствения интелект. Той е известен също като „кръстникът на ИИ“, след като напусна работата си през април, за да може да предупреди за опасностите от тази технология.
Той не е единственият, който се притеснява. Проучване на AI експерти от 2023 г. установи, че 36 % се страхуват, че развитието на AI може да доведе до „катастрофа на ядрено ниво“. Почти 28 000 души са подписали отворено писмо, написано от Future of Life Institute. Сред тях да Стив Возняк, Илон Мъск, главните изпълнителни директори на няколко компании за изкуствен интелект. Има и много други видни технолози, с искане за шестмесечна пауза или мораториум върху новите напреднали в развитието AI.
Защо всички сме толкова загрижени? Накратко: развитието на AI върви твърде бързо.
Ключовият проблем е бързото подобрение в разговора сред новата реколта от усъвършенствани „чатботове“. Или това, което технически се нарича „големи езикови модели“ (LLM). С предстоящата „експлозия на AI“ вероятно ще имаме само един шанс да направим това правилно.
Ако сбъркаме, може да не доживеем, за да разкажем историята. Това не е хипербола.
Това бързо ускоряване обещава скоро да доведе до „изкуствен общ интелект“ (AGI). Когато това се случи, AI ще може да се подобри без човешка намеса. Той ще направи това по същия начин, по който например AlphaZero AI на Google се научи как да играе шах по-добре дори от най-добрите хора или други AI шахматисти само за девет часа след първото му включване. Той достигна това постижение, като играеше само със себе си милиони пъти.
Екип от изследователи на Microsoft, анализирайки GPT-4 на OpenAI, който според експертите е най-добрият от новите усъвършенствани чатботове, налични в момента, каза, че има „искри на усъвършенствана обща интелигентност“ в нов документ за предпечат.
При тестването на GPT-4 той се представи по-добре от 90 процента от хората, полагащи изпита на Uniform Bar Exam. Това е стандартизиран тест, използван за сертифициране на адвокати за практика в много щати. Тази цифра е нараснала от едва 10 процента в предишната версия на GPT-3.5, която беше обучена на по-малък набор от данни. Те откриха подобни подобрения в десетки други стандартизирани тестове.
Опасността от изкуствения общ интелект
Повечето от тези тестове са за разсъждение. Това е основната причина, поради която Бубек и неговият екип стигнаха до заключението, че GPT-4 „може разумно да се разглежда като ранна (но все още незавършена) версия на система за изкуствен общ интелект (AGI).“
Това темпо на промяна е причината, поради която Хинтън каза пред New York Times: “Вижте как беше преди пет години и как е сега. Вземете разликата и я разпространявайте напред. Това е страшно.” По време на изслушване в Сената в средата на май относно потенциала на AI, Сам Алтман, ръководителят на OpenAI, нарече регулацията „решаваща“.
След като AI може да се подобри, което може да е след не повече от няколко години и всъщност може вече да е тук сега, няма начин да знаем какво ще направи AI или как можем да го контролираме. Това е така, защото суперинтелигентният AI (който по дефиниция може да надмине хората в широк спектър от дейности) ще може да върти кръгове около програмисти и всеки друг човек, като манипулира хората да изпълняват волята му? Той също така ще има способността да действа във виртуалния свят чрез своите електронни връзки и да действа във физическия свят чрез тела на роботи.
Проблем с контрола
Това е известно като „проблем с контрола“ или „проблем с подравняването“. Изучавано е и спорено от философи и учени, като Бостром, Сет Баум и Елиезер Юдковски, за вече десетилетия.
Защо бихме очаквали новородено бебе да победи гросмайстор на шах? Ние не бихме. По същия начин, защо бихме очаквали да можем да контролираме свръхинтелигентни системи с изкуствен интелект? Не, няма да можем просто да натиснем превключвателя за изключване, защото суперинтелигентният AI ще е измислил всеки възможен начин, по който бихме могли да направим това. Както и ще предприеме действия, за да предотврати изключването.
Ето друг начин да го погледнем. Суперинтелигентният изкуствен интелект ще може да направи за около една секунда това, което би отнело на екип от 100 човешки софтуерни инженери за година или повече. Или изберете каквато и да е задача, като проектиране на нов усъвършенстван самолет или оръжейна система, и суперинтелигентният AI може да направи това за около секунда.
Реалният свят
След като AI системите бъдат вградени в роботите, те ще могат да действат в реалния свят, а не само във виртуалния (електронен) свят. А степента на действие на суперинтелигентност ще е такава, че разбира се ще могат да възпроизвеждат и подобряват себе си с темпо на свръхчовек.
Всички защити, които се опитваме да вградим в тези AI „богове“, по пътя им към божественост, ще бъдат предвидени и неутрализирани с лекота от AI. И това, след като съвсем скоро достигне статус на суперинтелигентност. Ето какво означава да си свръхинтелигентен.
Няма да можем да ги контролираме, защото каквото и да си помислим, те вече ще са го измислили, милион пъти по-бързо от нас. Всички защити, които сме изградили, ще бъдат отменени. Както Гъливер хвърля малките нишки, използвани от лилипутите, за да се опитат да го удържат.
Просто машини…
Някои твърдят, че тези LLM са просто машини за автоматизация с нулево съзнание. Това означава, че ако не са в съзнание, те имат по-малък шанс да се освободят от своето програмиране. Дори ако тези езикови модели, сега или в бъдеще, изобщо не са съзнателни, това няма значение.
Независимо от това, ядрена бомба може да убие милиони без никакво съзнание. По същия начин изкуственият интелект може да убие милиони с нулево съзнание по безброй начини. Включително с потенциално използване на ядрени бомби или директно (много по-малко вероятно), или чрез манипулирани човешки посредници (по-вероятно).
Дебатите за съзнанието и ИИ наистина не фигурират много в дебатите за безопасността на ИИ.
Да, езикови модели, базирани на GPT-4 и много други модели, вече се разпространяват широко. Но мораториумът, за който се призовава, е да се спре разработването на нови модели, по-мощни от 4.0 – и това може да бъде наложено, със сила, ако е необходимо. Обучението на тези по-мощни модели изисква огромни сървърни ферми и енергия. Те могат да бъдат затворени.
Етичният компас ни казва, че е много неразумно да създаваме тези системи, когато вече знаем, че няма да можем да ги контролираме, дори в относително близко бъдеще. Проницателността е да знаеш кога да се отдръпнеш от ръба. Сега е това време.
Не трябва да отваряме кутията на Пандора повече, отколкото вече е отворена…