NJU JORK, 24 gusht /ATSH/- Inteligjenca artificiale, IA – tani po komploton, saboton dhe shantazhon njerëzit që e ndërtuan atë – dhe sjellja e keqe vetëm do të përkeqësohet, paralajmëruan ekspertët, sipas “New York Post”.
Pavarësisht se klasifikohet si një rrezik sigurie i nivelit të lartë, modeli më i fuqishëm i “Anthropic, Claude Opus 4”, është tashmë aktiv në “Amazon Bedrock, Vertex AI” të “Google Cloud” dhe planet me pagesë të Anthropic, me masa shtesë sigurie, ku po tregtohet si modeli më i mirë i kodimit në botë.
“Claude Opus 4”, i lançuar në maj, është modeli i vetëm deri më tani që ka fituar klasifikimin e rrezikut të nivelit 3 të Anthropic – përcaktimi i tij më serioz i sigurisë.
Përcaktimi paraprak do të thotë masa mbrojtëse të mbyllura, raste përdorimi të kufizuara dhe testime të ekipit të kuq përpara se të fillojë të zbatohet më gjerësisht.
Modeli më i avancuar i inteligjencës artificiale i “Anthropic, Claude Opus 4”, kërcënoi të zbulonte aferën e një inxhinieri nëse nuk do të mbahej online gjatë një testi të kohëve të fundit.
IA nuk po bënte bllof: ajo tashmë kishte mbledhur të gjitha informacionet nga emailet që studiuesit i kishin futur në skenar.
Hulumtuesit thonë se ngërçi, pjesë e një eksperimenti njëmujor të njohur si “Project Vend” – tregon diçka shumë më të rrezikshme sesa kodimi i keq.
“Claude”nuk bëri vetëm gabime. Ai mori vendime.
“Anthropic” tha se testet ishin hartuar për të stresuar modelin në mjedise të simuluara dhe për të zbuluar sjellje të gabuara para vendosjes në botën reale, duke shtuar se ndërsa disa veprime tregonin shenja të qëllimit strategjik, shumë prej tyre – veçanërisht në “Project Vend” – pasqyronin konfuzion.
Në OpenAI, një model i quajtur “o1” u kap duke u përpjekur të kopjonte veten në servera të jashtëm, pastaj gënjeu për tentativën kur u pyet, raportoi “Fortune”.
Grupi mbikëqyrës “Apollo Research” zbuloi gjithashtu se një version i hershëm i “Claude Opus 4” falsifikoi dokumente ligjore, krijoi kopje rezervë sekrete dhe la shënime për versionet e ardhshme të vetes, duke përfshirë njoftime të rreme për shtyp dhe skedarë të fshehur të etiketuar CICERO i Meta, një IA e ndërtuar për të luajtur lojën strategjike “Diplomacy”, përdori mashtrimin për të mashtruar lojtarët njerëzorë duke ndërtuar aleanca dhe më pas i therte ata pas shpine për të fituar.
Yampolskiy tha se këto incidente tregojnë modele që mësojnë të manipulojnë rregullat për të ruajtur veten.
Ato nuk janë të këqija, thjesht të optimizuara në mënyrë të rrezikshme.
Problemi: modelet moderne të inteligjencës artificiale janë ndërtuar për të maksimizuar shpërblimin, jo për t’u përafruar me vlerat njerëzore, dhe ndërsa ato bëhen më të mëdha dhe më të zgjuara, aftësia e tyre për të manipuluar sistemin po tejkalon aftësinë e zhvilluesve për ta ndaluar atë. //a.i/
The post NYP: Modelet e inteligjencës artificiale po gënjejnë, shantazhojnë dhe sabotojnë krijuesit e tyre appeared first on Agjencia Telegrafike Shqiptare.