Попаднах на част от „есе“ за изкуствения интелект, писано от Александър Болдачев - руски футуролог и философ. То дава един друг поглед както върху ChatGPT и езиковите модели, така и върху езика и логиката като същност. Написаното по никакъв начин не показва, че AGI (Artificial General Intelligence ) е на път да бъде създаден и изобщо дали това е възможно!?

„Всеки, който повече или по-малко е запознат с технологията GPT знае, че в нея (в трансформатора) няма логически двигател, няма нищо, което да може да направи логично заключение. Има само механизъм за предвиждане на следващата лексема (дума). И в резултат на верига от такива прогнози се появяват напълно логични изречения и дори цели логически безупречни текстове (въпреки че, разбира се, GPT може да произведе нелогични глупости, но сравнително рядко). И това, което е забележителното, е не толкова логиката на текста, генериран от GPT (той е чел много, така че го повтаря като папагал), а фактът, че той може да обясни тази логика.

И тук „Четох много“ вече няма да работи. Съгласете се, че няма много логични текстове, които съдържат обяснение защо са логични. Да, освен това, ако ботът има проблеми с логиката, може да ги преодолеете, като го помолите да разсъждава стъпка по стъпка. И работи. Наблюдавайки това поведение на GPT се прокрадва мисълта, че в големите езикови модели имат някакъв вид логически двигател. И не е трудно да се досетите къде е скрито – в самия език.

Не разбирайте твърдението просто директно, че езиковият модел използва езика, за да направи логично заключение. По-скоро трябва да кажем, че „самата логика е заложена в езика“. Или дори, че логиката е нещо, което може да бъде изолирано от езика. Тя е негов структурен компонент. Ние не използваме логика, ние използваме език. Но при желание или необходимост и разбира се, ако имаме определени познания, можем да обясним логиката на казаното.

Забелязахте ли как без предупреждение, скочих от обсъждане на логиката в GPT текстовете към говорене за употребата ѝ от хората? Направих го умишлено, защото изглежда, че анализирането на работата на езиков модел може да ни доближи до разбирането на нашето собствено мислене. В крайна сметка човек третира логиката точно като GPT: когато разказваме нещо, ние сме по-загрижени само за подбора на думите, а логиката някак си се появява сама. Въпреки че по-късно, ако ни попитат, можем да обясним защо е умрял Сократ – защото е логично, следва от силогизма на Барбара. Вярно е, че не е ясно откъде повечето хора знаят за смъртността на Сократ. В крайна сметка те нямат представа какво е силогизъм и колко закони на логиката е формулирал Аристотел.

Така че нека започнем отначало. Нито хората, нито GPT имат някакъв логичен двигател. Тъй като не е необходимо, никой никога не прави логично заключение от текста. Текстът се генерира от подбора на думи към формираната в текущото внимание концептуална структура (мисъл), подкрепена от текущия контекст. Колкото по-широк/дълбок/обемен/разширен във времето е контекстът, толкова по-голяма е вероятността да се генерира добре свързан текст. А това означава, че има по-голяма вероятност този текст да бъде признат за логичен. И колкото по-малка е частта от контекста, която може да бъде задържана в текущото внимание, толкова по-малко смислена ще бъде изразената мисъл и със сигурност ще бъдат разкрити логически грешки в текста.

Трябва да се отбележи, че разсъждението стъпка по стъпка няма нищо общо с логиката, с логическото заключение: веригата от преценки само насища и структурира контекста, разтяга го във времето. И изглежда, че така работи както в GPT, така и при хората.

Единственият проблем тук е, че човек често от разпознаването на логичността в един текст, прави извод за логичността на неговия генезис.“

Източник: Разширена Реалност