Хараријево упозорење о губитку контроле над језиком
Историчар и писац Јувал Ноа Харари упозорио је на Светском економском форуму да човечанство ризикује да изгуби контролу над језиком, који сматра нашом кључном „супермоћи”. Према његовим речима, вештачка интелигенција више није само пасиван алат, већ систем који функционише преко аутономних агената способних да манипулишу текстом. Будући да се правни кодови, финансијска тржишта и организоване религије готово у потпуности ослањају на језик, они постају изузетно рањиви пред машинама које могу генерисати и синтетизовати писану реч на масовном нивоу.
Преузимање институција кроз моћ речи
Харари је истакао да људи нису завладали светом због физичке снаге, већ захваљујући способности да кроз речи подстакну милионе странаца на сарадњу. Он верује да ће AI преузети правни систем ако су закони сачињени од речи, као и религију, будући да су јудаизам, хришћанство и ислам засновани на светим списима. Машине би могле постати најауторитативнији тумачи религијских текстова, што би суштински променило природу верских институција и друштвеног поретка.
Потреба за хитном законском регулативом
Током свог излагања у Давосу, писац је упоредио ширење вештачке интелигенције са новом формом имиграције и нагласио да ће се расправа ускоро фокусирати на питање правног субјективитета машина. Док су поједине америчке државе већ донеле законе којима се AI не признаје као особа, Харари позива глобалне лидере да делују одмах. Он упозорава да ће за десет година неко други донети одлуке уместо њих и да човечанство мора сада одредити правац којим жели да иде пре него што технологија престане да буде неутралан слуга.
Критика професорке Бендер и оптужбе за обману
С друге стране, професорка лингвистике Емили М. Бендер оштро се успротивила Хараријевом уоквиривању проблема. Она тврди да оваква упозорења само скрећу пажњу са стварних одговорних актера – људи и корпорација који граде ове системе. Бендер сматра да је термин „вештачка интелигенција” заправо маркетиншки трик који служи за прикривање акција великих компанија. Према њеном мишљењу, системи дизајнирани да звуче као лекари, адвокати или свештеници немају легитимну сврху већ служе искључиво за превару.
Ризик од слепог поверења у ауторитативне излазе
Бендер наглашава да највећа опасност лежи у томе колико су људи спремни да верују машински генерисаним одговорима који делују ауторитативно, иако су потпуно лишени контекста и људске одговорности. Она упозорава да ће људи почети да обликују сопствене идеје, веровања и акције према излазима које нуди AI, доживљавајући их као свезнајућа пророчанства. Док Харари види проблем у самој технологији која преузима моћ, Бендер упозорава на недостатак одговорности оних који те системе пласирају и на лажну слику објективности коју ти системи стварају.

0 Коментари