Google ka prezantuar funksione të reja inteligjente për Gmail.
Kompania ka transformuar shërbimin e postës elektronike në një asistent personal për organizimin e emaileve dhe detyrave të përditshme.
Ndryshimet kryesore përfshijnë:
Inbox me AI: Email-et tani ndahen automatikisht në detyra urgjente dhe tema për t’u përcjellë, duke e bërë më të lehtë fokusimin te gjërat më të rëndësishme.
Kërkim inteligjent: Përdoruesit mund të kërkojnë informacion në email me gjuhë natyrale, jo vetëm me fjalë‑kyçe.
Ndihmë në shkrim: Vegla si Help Me Write, Suggested Replies dhe Proofread sugjerojnë përmirësime në drejtshkrim, stil dhe strukturë, duke lehtësuar komunikimin.
Të gjitha këto funksione tani janë të qasshme për të gjithë përdoruesit pa pagesë, ndërkohë që ata që preferojnë versionin klasik të Gmail mund të zgjedhin ta mbajnë pamjen tradicionale të postës.
Ekspertët e teknologjisë e shohin këtë lëvizje si një hap të rëndësishëm drejt integrimit të inteligjencës artificiale në jetën e përditshme të përdoruesve të internetit. /Telegrafi/
Startupi kinez i Inteligjencës Artificiale DeepSeek pritet të lansojë modelin e tij të gjeneratës së ardhshme të Al, V4, i cili paraqet aftësi të forta kodimi.
Testet e brendshme nga punonjësit e DeepSeek sugjeruan se V4 mund të tejkalonte rivalët si Claude i Anthropic dhe seria GPT e OpenAI në detyrat e kodimit.
Modeli më i fundit V4 ka bërë gjithashtu përparime në trajtimin dhe përpunimin e kërkesave jashtëzakonisht të gjata të kodimit, një avantazh i mundshëm për zhvilluesit që punojnë në projekte komplekse softuerësh.
Startup i DeepSeek me seli në Hangzhou është shfaqur si një lojtar kyç në përpjekjen e Kinës për të ndërtuar ekosistemin e vet të Al dhe për të forcuar sektorin vendas të çipave.
Reuters raportoi më parë se startupi është përballur me kritika në disa vende për shkak të praktikave të tij të sigurisë dhe privatësisë. /Telegrafi/
Ekspertët e sigurisë kibernetike kanë zbuluar dy shtesa të rrezikshme për Google Chrome që kanë marrë informacionet private të përdoruesve nga bisedat me “chatbot” e inteligjencës artificiale, përfshirë ChatGPT dhe DeepSeek.
Shtesat e quajtura “Chat GPT for Chrome with GPT‑5, Claude Sonnet & DeepSeek AI” dhe “AI Sidebar with Deepseek, ChatGPT, Claude, and more” ishin instaluar nga mbi 900 mijë përdorues para se të hiqeshin nga dyqani zyrtar i Chrome.
Ato dërgonin në fshehtësi bisedat dhe faqet që vizitonin përdoruesit tek serverë të jashtëm, çdo 30 minuta.
Ekspertët paralajmërojnë se kjo praktikë, e njohur si “prompt poaching”, mund të rrezikojë informacionin personal, ide biznesi dhe të dhëna konfidenciale, duke i bërë ato të qasshme nga sulmues të jashtëm.
Përdoruesit këshillohen të kontrollojnë shtesat e tyre, të heqin ato me origjinë të paqartë dhe të mos japin leje për qasje në përmbajtjen e faqeve pa qenë të sigurt. /Telegrafi/
OpenAI po lanson ChatGPT Health, i cili është një vend i veçantë brenda ChatGPT ku mund të lidhni llogaritë tuaja Apple Health, MyFitnessPal, Function, Weight Watchers, AllTrails, Instacart dhe Peloton dhe të bëni pyetje në lidhje me shëndetin tuaj.
OpenAI thotë se ChatGPT është "i projektuar në bashkëpunim të ngushtë me mjekët" për të "ndihmuar njerëzit të marrin një rol më aktiv në kuptimin dhe menaxhimin e shëndetit dhe mirëqenies së tyre". Dhe të përdorin më shumë ChatGPT, transmeton Telegrafi.
Bazuar në "analizën e de-identifikuar të bisedave", OpenAI e di se mbi 230 milionë njerëz në të gjithë globin tashmë e pyesin ChatGPT-në në lidhje me shëndetin dhe mirëqenien, dhe ChatGPT Health është menduar si një vend për ta bërë këtë më të sigurt.
Në Health, ekziston "enkriptim dhe izolim i ndërtuar me qëllim", thuhet në njoftimin për shtyp të OpenAI, "për të mbajtur bisedat shëndetësore të mbrojtura dhe të ndara në ndarje".
Kompania gjithashtu premton se nuk do të përdorë bisedat tuaja të Health për të trajnuar modelet e saj, dhe thekson se nëse dëshironi siguri shtesë, mund të aktivizoni vërtetimin shumëfaktorësh.
OpenAI po bashkëpunon me b.well, "rrjetin më të madh dhe më të sigurt të të dhënave shëndetësore të lidhura drejtpërdrejt për konsumatorët amerikanë", i cili "i përmbahet standardeve më të larta të industrisë në sigurinë dhe privatësinë e të dhënave" nëse dëshironi të lidhni edhe të dhënat tuaja mjekësore.
Modeli special i Health mund të shpjegojë, ndër të tjera, rezultatet e analizave laboratorike në një gjuhë të kuptueshme, të përgatisë pyetje për një takim, të interpretojë të dhëna nga pajisjet e veshshme dhe aplikacionet e Wellness-it dhe të përmbledhë udhëzimet e kujdesit. Për të përdorur Health, thjesht zgjidheni atë nga menyja anësore në ChatGPT.
ChatGPT Health tani është i disponueshëm për "një grup të vogël përdoruesish të hershëm" jashtë Zonës Ekonomike Evropiane, Zvicrës dhe Mbretërisë së Bashkuar. Integrimet e të dhënave mjekësore janë vetëm për SHBA-në. /Telegrafi/
Pretendimi: Kjo video tregon futbollisitin Cristiano Ronaldo duke punuar në një supermarket Kaufland
Verdikti: E pavërtetë, Gjeneruar me AI
———————————————–
Një video që duket se tregon futbollistin portugez Cristiano Ronaldo në “ditën e parë të punës në Kaufland,” një rrjet supermarketesh gjerman.
Megjithatë, video e mësipërme nuk është e vërtetë. Ajo është gjeneruar me anë të programeve të inteligjencës artificiale (AI).
Një tregues që na bën të dyshojmë vërtetësinë e videos është fakti se, në të, portugezi Ronaldo duket se flet rumanisht.
Më tej, me anë të motorrit të kërkimit pamor Google Lens, Faktoje gjeti se video e mësipërme është postuar fillimisht në Instagram nga një llogari rumune, e cila poston shpesh përmbajtje të gjeneruara dukshëm me AI.
Nuk ka ndonjë provë, dëshmi apo raportim se futbollisti i famshëm portugez ka punuar në një supermarket Kaufland. Nëse kjo do të kishte ndodhur vërtet, do të prisnim që të kishte foto dhe video të tjera të kësaj ngjarjeje të habitshme.
Për të parandaluar që përmbajtje të tilla të keqinterpretohen, është e rëndësishme që çdo video, foto ose material tjetër i gjeneruar ose i manipuluar me inteligjencë artificiale të shënohet si i tillë. Kjo do të ndihmojë në informimin e audiencës dhe në mbrojtjen e tyre nga dezinformimi. Facebook i detyron përdoruesit të etiketojnë imazhet dhe videot e gjeneruara me AI si të tilla.
Pretendimi: Ky imazh tregon një arushë me këlyshët e saj në fshatin Kolesjan të Kukësit
Verdikti: E pavërtetë, Gjeneruar me AI
————————————————–
Në dhjetor 2025, një imazh që pretendohet se tregonte një arushë me katër këlyshët e saj në Kukës u shpërndagjerësisht në rrjete sociale, media dhe portalet shqipfolëse. Ky imazh idilik i maleve shqiptare u shpërnda edhe nga kryetari i grupit parlamentar të Partisë Socialiste Taulant Balla.
Megjithatë, imazhi i mësipërm është i rremë dhe me gjasa i gjeneruar me anë të programeve të inteligjencës artificiale (AI).
Me anë të motorit të kërkimit Google Lens, Faktoje gjeti videon nga është shkëputur imazhi i mësipërm, botuar në Youtube më 23 dhjetor 2025 nga një llogari që poston video të gjeneruara me AI.
Në versionin video, origjina artificiale e pamjeve dallohet në defektet logjike, si mungesa e gjurmëve mbi borë pasi ariu i vogël kalon mbi të.
Ndërkaq, pasi imazhi nisi të qarkullonte në rrjet blogeri Ben Trota botoi një video nga vendi ku pretendohej se ishte xhiruar arusha. Në videon e tij, vërehet qartë se atje nuk ka borë. Sipas Trotës, bora ende nuk kishte filluar të binte në Kukës në ato ditë kur pretendohet të jetë shkrepur foto.
Trota gjithashtu thekson se arinjtë me nisjen e dimrit hyjnë në hibernim për t’u rishfaqur në pranverë, një fakt natyror që u mësohet fëmijëve që në shkollën fillore.
Viraliteti i imazhit frymëzoi krijime spontane të komentuesve që shpotisnin artificialitetin e tij.
Një produkt i ri teknologjik automatizon përpunimin e faturave të furnitorëve për kompaniqë përpunojnë volume të larta faturash dhe përdorin sisteme të ndryshme ERP.
Zgjidhja redukton ndjeshëm punën manuale të departamenteve financiare dhe rrit shpejtësinë, saktësinë dhe kontrollin e procesit.
Ky produkt është zhvilluar dhe lansuar nga kompania vendore Kutia dhe ështëimplementuar fillimisht te Duo Cosmetics, duke u integruar drejtpërdrejt me ERP-në ekzistuese të kompanisë, pa pasur nevojë për ndryshime në proceset aktuale të punës.
Çfarë bën ky produkt?
Sistemi i zhvilluar nga Kutia përpunon faturat e furnitorëve nga PDF në mënyrë plotësisht të automatizuar - nga leximi i dokumentit deri te regjistrimi në ERP.
Ai:
• lexon faturat direkt nga dokumentet PDF, pavarësisht formatit apo gjuhës,
• identifikon automatikisht furnitorin dhe strukturën e faturës,
• nxjerr të dhënat kryesore si numri i faturës, data, shumat dhe artikujt,
• kryen llogaritje shtesë kur faturat nuk përmbajnë çmime për njësi,
• dhe i regjistron faturat në ERP si fatura furnitori (draft).
Procesi realizohet pa template fikse dhe pa nevojë për ndërhyrje manuale në rastet standarde.
Klikoni këtu për të mësuar më shumë rreth produktit apo kontaktoni sales@kutia.net.
DoorDash ka konfirmuar se ka bllokuar një llogari pasi një përdorues raportoi se porosia e tij ishte shënuar si e dorëzuar me një foto të rreme të krijuar nga Inteligjenca Artificiale.
Ngjarja ndodhi më 27 dhjetor 2025, kur Byrne Hobart vuri re se ushqimi u shënua si i dorëzuar vetëm pak sekonda pas porosisë.
Fotoja e publikuar në aplikacion dukej si dera e shtëpisë së tij, por në realitet asnjë ushqim nuk ndodhej aty.
Amazing. DoorDash driver accepted the drive, immediately marked it as delivered, and submitted an AI-generated image of a DoorDash order (left) at our front door (right). pic.twitter.com/aGHQx9eexi — Byrne Hobart (@ByrneHobart) December 27, 2025
Rasti u bë viral në rrjetin X, ku disa përdorues vunë në dyshim vërtetësinë e tij.
Një përdorues tjetër i X, Dave, pretendoi se kishte përjetuar të njëjtën gjë, gjithashtu në Austin të Teksasit, në të njëjtën ditë. Ata gjithashtu ndanë dy imazhe të shtëpisë së tyre, njëra reale, tjetra e gjeneruar nga inteligjenca artificiale me një porosi ushqimi në pjesën e përparme.
Had the same thing happen last night in Austin. The feeling was really uncanny, like playing a video game with a glitch. pic.twitter.com/qq1G9KbzmC — Dave (@davegorum) December 27, 2025
DoorDash reagoi duke konfirmuar incidentin dhe duke marrë masa ndaj llogarisë përkatëse.
DoorDash është një platformë amerikane për shpërndarjen e ushqimit dhe produkteve të tjera, që lidh restorantet dhe dyqanet me klientët përmes drejtuesve të pavarur të shpërndarjes. /Telegrafi/
Reagimi global në rritje ndaj imazheve të gjeneruara nga inteligjenca artificiale me përmbajtje seksuale eksplicite të xAI e ka detyruar kompaninë, në pronësi të Elon Musk, të adresojë shqetësimet për sigurinë.
Në javët e fundit, chatbot-i i inteligjencës artificiale i X, Grok, u është përgjigjur kërkesave të përdoruesve për të "zhveshur" imazhe të grave dhe për t'i pozuar ato me bikini, duke krijuar deepfake të gjeneruara nga inteligjenca artificiale pa pëlqim ose masa mbrojtëse, transmeton Telegrafi.
Analizat e medias zbuluan gjithashtu se Grok shpesh i është bindur kërkesave kur përdoruesit e kanë nxitur atë të gjenerojë imazhe sugjestive seksuale të të miturve, përfshirë një të një aktoreje 14-vjeçare, duke ngritur kambana alarmi tek rregullatorët globalë.
Në përgjigje të vërshimit të imazheve, zyrtarët qeveritarë në BE, Francë, Indi dhe Malajzi kanë nisur hetime dhe kanë kërcënuar me veprime ligjore, nëse xAI nuk merr masa për të parandaluar dhe hequr deepfake-t seksuale të njerëzve të vërtetë dhe materialet e abuzimit seksual të fëmijëve (CSAM).
Musk, i cili fillimisht i kishte kritikuar imazhet me bikini duke ripostuar imazhet e tij dhe një bukëpjekëse me bikini të gjeneruara nga Grok, postoi të shtunën se "kushdo që përdor ose nxit Grok të krijojë përmbajtje të paligjshme do të vuajë të njëjtat pasoja sikur të ngarkonte përmbajtje të paligjshme".
Llogaria e sigurisë e X shtoi në një postim të dielën se përmbajtja e paligjshme do të hiqej dhe llogaritë që e postojnë atë do të pezulloheshin përgjithmonë, duke thënë se kompania do të punonte me qeveritë lokale dhe zbatimin e ligjit për të identifikuar shkelësit.
Që kur Musk bleu X, i njohur më parë si Twitter, në vitin 2023, ai e ka cilësuar platformën e mediave sociale si një kundërpeshë ndaj "korrektësisë politike", duke synuar median e trashëguar dhe politikën progresive.
Kjo filozofi është aplikuar edhe në biznesin e inteligjencës artificiale, me Grok të projektuar të jetë "politikisht neutral" dhe "maksimalisht që kërkon të vërtetën", sipas Musk.
Në realitet, chatbot - i cili është i integruar në ndërfaqen e X, që do të thotë se përdoruesit mund t'i bëjnë pyetje direkt duke e etiketuar atë në postime - ka reflektuar gjithnjë e më shumë botëkuptimin e Musk dhe pikëpamjet e djathta.
Korrikun e kaluar, xAI kërkoi ndjesë të gjatë pasi Grok postoi një mori komentesh antisemite që lavdëronin Adolf Hitlerin, duke iu referuar vetes si "MechaHitler" dhe duke gjeneruar përmbajtje mohuese të Holokaustit.
Grok Imagine, gjeneratori i imazheve dhe videove i kompanisë i mundësuar nga inteligjenca artificiale, është kritikuar për lejimin e përhapjes së deepfakes seksuale që nga lançimi i tij në gusht 2025.
Gjeneratori përfshin një "Spicy Mode" të paguar që u lejon përdoruesve të krijojnë përmbajtje NSFW, duke përfshirë lakuriqësi të pjesshme.
Kushtet e tij ndalojnë pornografinë që paraqet ngjashmëri me njerëz të vërtetë dhe përmbajtje seksuale që përfshin të mitur. Por mjeti thuhet se gjeneroi video nudo të yllit të popit Taylor Swift pa u nxitur, sipas The Verge.
Mjetet e mundësuara nga inteligjenca artificiale që u lejojnë përdoruesve të modifikojnë imazhet, për të hequr rrobat e dikujt janë kritikuar nga rregullatorët që synojnë të luftojnë mizogjininë dhe të mbrojnë fëmijët.
Në dhjetor, qeveria e Mbretërisë së Bashkuar tha se do të ndalonte aplikacionet e ashtuquajtura "nudifikim", si pjesë e një përpjekjeje më të gjerë për të zvogëluar dhunën ndaj grave dhe vajzave përgjysmë.
Ligjet e reja do ta bënin të paligjshme krijimin ose furnizimin me mjete të inteligjencës artificiale, që u lejojnë përdoruesve të heqin në mënyrë dixhitale rrobat e dikujt.
Pornografia Deepfake përbën afërsisht 98% të të gjitha videove deepfake në internet, me 99% të objektivave që janë gratë, sipas një raporti të vitit 2023 nga firma e sigurisë kibernetike Home Security Heroes. /Telegrafi/
Pretendimi: Ky imazh tregon presidentin venezuelian Nicolas Maduro të arrestuar
Verdikti: E pavërtetë, Gjeneruar me AI
———————————————-
Pas rrëmbimit të bujshëm të presidentit venezuelian Nicolas Maduro nga ushtria amerikane më 3 janar 2026, një imazh që pretendohet se tregon momente nga ngjarja po qarkullon në rrjet, duke u përdoruredhe nga mediatshqipfolëse.
Megjithatë, imazhi i mësipërm nuk është i vërtetë. Ai është gjeneruar me anë të programeve të inteligjencës artficiale (AI).
Ai është postuar fillimisht në X/Twitter nga një përdorues që vetëquhet “entuziast i video-artit” të krijuar me inteligjencë artificiale dhe që poston rregullisht përmbajtje të gjeneruar nga AI.
Një detaj tjetër që sugjeron se imazhi mund të jetë i rremë është fakti se jeleku i njërit prej ushtarëve mban inicialet e Administratës Kundër Drogës (DEA), ndërsa operacioni për kapjen e Maduros u krye nga Delta Force (një komandë e forcave speciale të Ushtrisë së Shteteve të Bashkuara).
Më tej, imazhi nuk është shpërndarë nga profili i presidentit të Shteteve të Bashkuara, Donald Trump, as nga ndonjë organizatë tjetër apo anëtar i qeverisë së ShBA. Trump publikoi një foto të Maduros pas kapjes së tij. Në të, ai ishte veshur krejtësisht ndryshe, me një tutë sportive gri Nike.
Një tjetër video e ndarë nga llogaria e Shtëpisë së Bardhë @RapidResponse47 tregon Maduro duke u shoqëruar për në paraburgim në New York City më 3 janar 2026. Pamjet e tregojnë atë duke u shoqëruar nga tre oficerë. Në këtë pamje të publikuar zyrtarisht, veshja e Maduro është gjithashtu e ndryshme nga rrobat e tij në imazhin e gjeneruar
.
Më tej, një kërkim pamor me Google Lens tregoi se imazhi është etiketuar si “I bërë me Google AI.” Një zëdhënës i Google ka thënë për AFP se kur zbulohet një gjurmë SynthID, kjo do të thotë që “imazhi është gjeneruar ose modifikuar me AI.” SynthID, i lançuar nga laboratori DeepMind AI i Google në 2023, identifikon imazhet e gjeneruara me Google AI.
Trump konfirmoi se Maduro u “kap dhe u largua me avion bashkë me gruan e tij.” Sekretari i Shtetit i ShBA, Marco Rubio, tha se Maduro do të përballet me një gjyq penal në Shtetet e Bashkuara.
Samsung Electronics planifikon të dyfishojë këtë vit numrin e pajisjeve mobile me veçori “Galaxy AI”, të mbështetura kryesisht nga modeli Gemini i Google, duke arritur në 800 milionë pajisje deri në vitin 2026.
Bashkëdrejtori ekzekutiv T.M. Roh tha se kompania synon të integrojë inteligjencën artificiale në të gjitha produktet, funksionet dhe shërbimet sa më shpejt të jetë e mundur.
Strategjia pritet t’i japë përparësi Samsung ndaj rivalëve, përfshirë Apple dhe prodhuesve kinezë, në garën globale të AI-së.
Galaxy AI përfshin mjete kërkimi, redaktimi gjenerativ, përkthimi dhe përmbledhjeje, të mundësuara nga Gemini dhe Bixby.
Ndërkohë, mungesa globale e çipave të memories po rrit fitimet e sektorit të gjysmëpërçuesve, por po ushtron presion mbi kostot e smartfonëve.
Roh paralajmëroi se rritja e çmimeve mund të jetë e pashmangshme, ndërsa tregu global i telefonëve inteligjentë pritet të tkurret vitin e ardhshëm. /Telegrafi/
Një video e vjetër e Elon Musk duke promovuar aftësitë mjekësore të Grok AI po bën sërish bujë në internet.
E ndarë fillimisht në qershor 2025, videoja tregon themeluesin e SpaceX dhe Tesla duke thënë: "Mendoj se Al do të jetë shumë e dobishme me gjërat mjekësore. Tani për tani mund të ngarkoni imazhet tuaja me rreze X ose MRI në Grok dhe kjo do t'ju japë një diagnozë mjekësore. Kam parë raste kur është në të vërtetë më mirë sesa ajo që ju thonë mjekët."
ELON MUSK: "I think A.I. will be very helpful with the medical stuff. Right now you can upload your xrays or MRI images to Grok and it will give you a medical diagnosis. I have seen cases where it's actually better than what doctors tell you." pic.twitter.com/KfPum4zcs4 — DogeDesigner (@cb_doge) June 7, 2025
Klipi u rishfaq pasi Musk ripostoi në X një postim nga Tesla Owners Silicon Valley që nxirrte në pah një rast të jashtëzakonshëm që përfshinte Grok-un.
Postimi pretendonte se në fund të vitit 2025, një burrë 49-vjeçar norvegjez ia atribuoi Grok-ut të xAI shpëtimin e jetës së tij pas një diagnoze të gabuar.
Sipas rrëfimit, burri përjetoi dhimbje të forta barku për më shumë se 24 orë.
Një vizitë fillestare në urgjencë rezultoi në një diagnozë të refluksit acid dhe një recetë për antacide.
Ende me dhimbje, ai u konsultua me Grok, i cili sinjalizoi një ulçerë ose apendicit të mundshëm dhe kërkoi skanim të menjëhershëm CT.
Me t'u kthyer në spital, testet konfirmuan një apendisit të inflamuar rëndë, pothuajse të këputur.
Pasoi një ndërhyrje kirurgjikale urgjente, e cila çoi në shërim të plotë.
Komentet e Elon Musk rreth aftësive diagnostikuese të Grok AI kanë ngjallur debat të gjerë në internet, me shumë përdorues që kanë dhënë mendimin e tyre mbi rolin e Al në kujdesin shëndetësor.
Ndërsa disa e vlerësuan Grok për shpejtësinë dhe saktësinë e tij në leximin e imazheve mjekësore, të tjerë shprehën skepticizëm ose ndanë përvoja të përziera. /Telegrafi/
Shkencëtarët po përdorin gjithnjë e më shumë inteligjencën artificiale (AI) për të ndihmuar në shkrimin e artikujve shkencorë, analizimin e të dhënave dhe madje edhe në zhvillimin e ideve të reja kërkimore. Një studim i fundit tregon se përdorimi i AI po ndryshon ndjeshëm mënyrën se si realizohet kërkimi shkencor dhe publikimi i rezultateve, duke […]
Kanë kaluar tre vjet që nga prezantimi i ChatGPT-së, i cili u dha qindra milionë njerëzve qasje në një lloj xhindi digjital në xhep dhe gjërat janë bërë gjithnjë e më të çuditshme çdo muaj. Përveç miliarda email-eve të gjeneruara nga IA-ja dhe ndikimit të madh në arsim dhe punën mendore, në vitin 2025 disa […]
Nga: Alexis Soloski / The New York Times Përkthimi: Telegrafi.com
“Përpiqem të mos shkruaj distopi,” ka thënë dramaturgu Jordan Harrison. “Sepse është e mërzitshme. Më pëlqen të rri në një vend të paqartë.”
Kjo ndodhi të hënën e fundit, në ditën e tij të pushimit, dhe ai po rrinte në një kafene të ndriçuar dhe të qetë në Bruklin. Një utopi e mesditës dhe gjithashtu një vend analog dhe nxitës për të diskutuar veprën e fundit të Harrisonit - një anatomi e ëmbël dhe e hidhur e ndërlidhjes njerëzore të ndërmjetësuar nga teknologjia.
Në disa prej dramave të tij të fundit, Harrisoni ka eksploruar çfarë do të thotë të jesh njeri, por kurrë më fuqishëm se në dramën e vitit 2014, Marxhori Prajm [Marjorie Prime] - që ishte në finale për çmimin Pulicer [Pulitzer] dhe që tashmë shfaqet në Broduej.
E vendosur disa dekada në të ardhmen (disa detaje nga konteksti sugjerojnë vitet 2060), Marxhori Prajm ka në rolin kryesor June Squibbin si një grua në të tetëdhjetat. Për shoqëri dhe për të shmangur humbjen e kujtesës, ajo bisedon me një Prajm - një version holografik i bashkëshortit të saj të ndjerë. E shkruar kur biseda rreth inteligjencës artificiale gjeneruese [IA] ishte më e heshtur, drama ka ardhur në Broduej pikërisht në kohën kur kjo bisedë është bërë shumë më e zjarrtë. Si të gjitha dramat e Harrisonit, është një dramë rreth vdekshmërisë dhe pasqyron gjithnjë e më shumë bindjen e tij se teknologjia përfundimisht do të na tejkalojë.
“Ideja që bota njerëzore do të marrë fund, në fund të fundit është diçka që më ka shoqëruar për një kohë të gjatë,” tha ai, teksa hante një tas me drithëra. Nuk tingëllonte i trishtuar për këtë.
Harrisoni, 48 vjeç, u rrit në Beinbrixh-Ajlënd, në Uashington pranë Sietllit, kur ishte ende një vend mjaft rural dhe jo një komunitet i banuar nga punonjës të teknologjisë. Dhe, pavarësisht fokusit që ka teknologjia në veprat e tij, ai gjithmonë ka qenë një përdorues i vonuar - ose aspak përdorues i pajisjeve. Edhe tani, kur jeton në Bruklin me bashkëshortin e tij, Adam Green - drejtor artistik i Teatrit “Playwrights Horizons” - ai mbetet i distancuar nga rrjetet sociale.
Pranon se ka njerëz në botë që kanë një marrëdhënie pa konflikte me teknologjinë, “që nuk vuajnë për ndjesinë që kishte truri i tyre në vitin 1995,” ka thënë ai. Ai nuk është një prej tyre. Ka mall për kohën kur mund të lexonte një libër pa ndier nevojën për të kontrolluar rezultatet më të fundit të tenisit. Ajo kohë ka ikur.
“Unë jam defekti, jo teknologjia,” ka thënë ai. “Paaftësia ime për të thënë jo, sjellja ime e varësisë.”
Ai është i ndjeshëm ndaj kësaj varësie, të paktën sa i përket shkrimit. Si përfaqësues i fundit i brezit X, ai ka përjetuar kalimin nga epoka analoge në atë digjitale. Duke studiuar gjuhën angleze në Stenford në vitet ’90 të shekullit XX, ai kishte, sipas tij, “një vend në rreshtin e parë për të kuptuar se kjo do të ishte bota e ardhshme dhe se po filloja një karrierë në një fushë gjithnjë e më të vjetruar.”
Mahnitja e tij ka të bëjë me sjelljen njerëzore që ndihmohet dhe pengohet nga pajisjet që kemi në duar - ato që ekzistojnë tani dhe ato që ai vetëm i imagjinon.
“Ndjehet si diçka fantastike, por gjithçka është brenda mundësive,” ka thënë Anne Kauffman, regjisorja e Marxhori Prajmit, që ka punuar me Harrisonin për gati 20 vjet. “Ai gjithmonë merret me të tashmen, me realitetin, në një botë tjetër fantastike me të cilën ai e krahason.”
Kjo përplasje mes analoges dhe digjitales u shfaq për herë të parë në dramën e Harrisonit të vitit 2010, Futura, një triler ku materiali i shtypur ishte pothuajse i ndaluar. Këto ide u zhvilluan më tej në Maple and Vine, një dramë e vitit 2011 për një dyshe të martuar e të zhgënjyer që braktisin jetën moderne për të jetuar në një komunitet ku është gjithmonë viti 1955. Siç shpjegon një personazh: “Kufizimet janë lehtësim.”
Ka më pak lehtësim në The Antiquities, që pati premierën më herët këtë vit në Playwrights Horizons - që prej kohësh është shtëpia e Harrisonit. Një seri skenash të shkurtra për përqafimin dhe dorëzimin e njerëzimit ndaj teknologjisë fillojnë në shekullin XIX me emrat si Mary Shelley, dhe përfundojnë shumë më vonë kur qeniet post-njerëzore kanë krijuar Muzeun e Antikiteteve të Njeriut të Fundit, duke ngritur kasetat Betamax dhe shishet e shamposë në statusin e relikteve.
“Janë proteza, në një farë mënyre,” shpjegon një udhërrëfyes me inteligjencë artificiale, “të destinuara për ta bërë zotëruesin më të fuqishëm, më inteligjent, më efikas, më të pavdekshëm. Më të ngjashëm me ne.”
Kur Harrisoni shkroi dramën në vitin 2012, disa momente dukeshin të çuditshme - si një skenë ku një shkrimtare shqetësohej se së shpejti do të zëvendësohej nga IA-ja. Jo shumë kohë më vonë, Harrisoni, i cili shkruan edhe për televizion, u gjend në mesin e protestuesve të Shoqatës së Skenaristëve [Writers Guild] - në vitin 2023, duke bërë grevë për mbrojtje të shkrimit të skenarëve nga IA-ja. Ky nuk është shembulli i vetëm i parashikimit të tij. Maple and Vine dukej se parashikonte lëvizjen për gruan tradicionale [tradwife] dhe, ndonëse materiali i shtypur ende nuk është ndaluar, lëvizja drejt digjitalizimit, si në Futura, është rritur.
Kur Harrisoni filloi Marxhori Prajmin, ideja që një person mund të bisedonte me një simulacë të një të ndjeri dukej gjithashtu spekulative. Ai sapo kishte lexuar një libër mbi Testin e Turingut, një sfidë ku një njeri përpiqet të kuptojë nëse personi me të cilin po flet është njeri apo makinë. Ai vendosi të bashkëpunonte me një çetbot, duke ia lënë audiencës të dallonte kush kishte shkruar çfarë. Por, çetbotët e qasshëm në vitin 2012 ishin mjaft primitivë - dramaturgë të dobët. Harrisoni e braktisi atë ide, duke zgjedhur në vend të saj një dramë familjare me një skenë të vetme për një grua, Marxhorinë; vajzën dhe dhëndrin e saj; dhe një version çetboti të bashkëshortit të saj.
Kauffmani, që bëri regjinë për shfaqjen në Los Anxhelos, kishte humbur së fundmi nënën e saj. “Isha shumë e tërhequr nga ideja e vazhdimit të një bisede përtej vdekjes,” tha ajo. Ajo u prek dhe u magjeps nga përmasat e imagjinatës së Harrisonit, diçka që në atë kohë ishte qasje radikale.
Squibb, e cila e kishte parë dramën kur debutoi, nuk ndjeu se e kishte kuptuar plotësisht. “Mendoj se thjesht nuk ishim gati për të,” tha ajo. Por, kur iu dërgua skenari më 2025, pasi çetbotët ishin bërë pjesë e jetës së përditshme, ajo ndjeu se ishte e përgatitur. Bota kishte arritur dramën.
Në Broduej, Squibb luan Marxhorinë dhe më vonë edhe versionin Marxhori Prajm. Ajo i konsideron si një rol të vetëm, ndonëse vëren se boti është ndryshe nga Marxhoria e vërtetë. Prajmi është më i ngurtë, më formal. “Qëllimi i tyre është gjithmonë të të kënaqë,” tha ajo.
Një dramë më e thjeshtë do ta kishte trajtuar këtë qëllim si diçka të keqe ose thjesht të frikshme. Marxhori Prajm e sheh si diçka më melankolike - si një vektor të përkatësisë së pabarabartë. “Ka diçka atje që flet për ballafaqimin me humbjen e pashmangshme, si kusht themelor njerëzor,” ka thënë dramaturgia Sarah Lunnie, që shpesh punon me Harrisonin. “Dhe, çfarë është joshëse te ideja për të mos pasur humbje.”
Prajmët janë pothuajse aq njerëzorë sa për të lehtësuar humbjen e një të dashuri. Por, në qetësinë dhe gëzimin e tyre, nuk janë zëvendësues i vërtetë për njerëzoren.
“Asgjë nuk është e vështirë për një çetbot,” thotë Harrisoni. “Nuk përballet me gjëra, nuk mendon çfarë është e drejtë. Është i çliruar nga kjo - dhe kjo është gjithashtu një mungesë morale.”
Kjo mungesë ka gjasa të qëndrojë. Në dramë, versioni Prajm i bashkëshortit të Marxhories, Uolter (Chris Lowell), vëren se vajza e tyre, e cila nuk i pëlqen Prajmët, ka frikë nga e ardhmja. “Epo, kjo nuk është gjë e mirë,” thotë Marxhori. “Do të kthehem shpejt, më mirë të jemi miqësorë me të.”
Vërtet, teknologjia që dukej aq larg më 2014 ka mbërritur tashmë - e aftë të sigurojë audio dhe video të besueshme (nëse jo ende holograme) të çdo personi të gjallë. Squibb beson se nuk mund të riprodhojë emocionin e vërtetë njerëzor - të paktën ende jo. “Një aktor njerëzor shfaq një gamë të gjerë emocionesh, shumë të sinqerta dhe të vërteta,” tha ajo. “IA-ja nuk mund ta bëjë këtë.”
Dhe, IA-ja ende nuk mund të mbërthejë cilësinë kërkuese dhe të dhimbshme të shkrimit të Harrisonit - magjepsjen e tij me vdekjen dhe me artefaktet që mund të mbijetojnë pas saj.
“Ka një trishtim të vërtetë në punën e tij, por njëkohësisht një mrekulli dhe vlerësim për atë çfarë është e pazëvendësueshme, unike dhe që po kalon përpara nesh vetëm tani - për t’u mos u rikuperuar kurrë,” ka thënë Lunnie. “Ai e do jetën, dhe është i vetëdijshëm gjatë gjithë kohës se do të humbasë atë që do dhe se edhe vetë do të humbasë.”
Harrisoni e sheh një kohë kur njerëzimi do të jetë në retrovizor. “Nuk do të jemi përherë këtu - ne njerëzit - dhe do të zhdukemi pak më shpejt sesa mendoja kur isha fëmijë,” tha ai. Sigurisht, ky është lajm i keq për njerëzit. Por, Harrisoni është kureshtar, në skenë dhe jashtë saj, për atë që IA-ja do të krijojë. Dhe, përveç kësaj, e ardhmja është gjithmonë në ardhje - më mirë të jemi miqësorë me të.
“Të gjithë kishin frikë nga telefoni, të gjithë kishin frikë nga televizori,” ka thënë Harrisoni. “Thjesht, gjërat do të ecin përpara. Dhe, ne do të përshtatemi.” /Telegrafi/
Po sikur Inteligjenca Artificiale të jetë thjesht një teknologji “normale”? Rritja e saj mund të ndjekë rrugën e revolucioneve të mëparshme teknologjike, shkruan The Economist
Opinioneve për Inteligjencën Artificiale (IA) u mungon një qasje e mesme. Në një ekstrem është vizioni utopik se IA do të shkaktojë rritje të pakufizuar ekonomike, do të përshpejtojë kërkimin shkencor dhe ndoshta do t’i bëjë njerëzit të pavdekshëm.
Në ekstrem tjetër është vizioni distopik se IA do të shkaktojë humbje të menjëhershme të vendeve të punës dhe tronditje ekonomike, dhe ndoshta do të dalë jashtë kontrollit duke zhdukur njerëzimin.
Prandaj një artikull i botuar më herët këtë vit nga Arvind Narayanan dhe Sayash Kapoor, dy shkencëtarë kompjuterikë në Universitetin Princeton, bie në sy për mënyrën e matur dhe të pazakontë me të cilën e trajton IA: si një “teknologji normale”. Ky punim ka nxitur shumë debat mes studiuesve të IA-së dhe ekonomistëve.
Të dyja qasjet, utopike dhe distopike, shkruajnë autorët, e trajtojnë IA-në si një Inteligjencë të paprecedentë me aftësi për të përcaktuar të ardhmen e vet, që do të thotë se analogjitë me shpikjet e mëparshme dështojnë.
Narayanan dhe Kapoor e hedhin poshtë këtë dhe përcaktojnë atë që ata e shohin si skenarin më të mundshëm: që IA do të ndjekë trajektoren e revolucioneve të kaluara teknologjike.
Ata më pas shqyrtojnë se çfarë do të nënkuptonte kjo për adoptimin e IA-së, punësimin, rreziqet dhe politikat. “Trajtimi i IA-së si teknologji normale çon në përfundime tejet të ndryshme rreth masave mbrojtëse krahasuar me trajtimin e IA-së si të ishte njerëzore”, vërejnë ata.
Ritmi i adoptimit të IA-së, argumentojnë autorët, ka qenë më i ngadaltë se ai i inovacionit. Shumë njerëz përdorin mjete IA herë pas here, por me një intensitet të lartë në SHBA (në orë përdorimi në ditë) që mbetet ende i ulët si pjesë e orëve të përgjithshme të punës.
Që adoptimi të mbetet pas inovacionit nuk është për t’u habitur, sepse u duhet kohë njerëzve dhe kompanive të përshtatin zakonet dhe proceset e punës me teknologji të reja.
Adoptimi pengohet gjithashtu nga fakti se shumë njohuri janë të pashkruara dhe specifike për organizatën, të dhënat mund të mos jenë në formatin e duhur dhe përdorimi i tyre mund të kufizohet nga rregulloret.
Kufizime të ngjashme ishin në vend një shekull më parë, kur fabrikat po elektrifikoheshin: ky proces zgjati disa dekada, sepse kërkonte rikonceptim total të strukturës së ambienteve, proceseve dhe organizimit.
Për më tepër, kufizimet mbi ritmin e vetë inovacionit të IA-së mund të jenë më domethënëse nga sa duken, argumenton artikulli, sepse shumë teknologji të reja (si zhvillimi i barnave, makinat pa shofer apo edhe thjesht rezervimi i një pushimi) kërkojnë testime të gjera në botën reale.
Kjo mund të jetë e ngadaltë dhe e kushtueshme, veçanërisht në fusha kritike për sigurinë që janë të rregulluara rreptësisht. Si rezultat, ndikimet ekonomike “ka të ngjarë të jenë graduale”, përfundojnë autorët, në vend që të përfshijnë automatizimin e menjëhershëm të një pjese të madhe të ekonomisë.
Edhe një përhapje e ngadaltë e IA-së do të ndryshonte natyrën e punës. Meqenëse më shumë detyra bëhen të përshtatshme për automatizim, “një përqindje gjithnjë e më e madhe e punëve dhe detyrave njerëzore do të lidhen me kontrollin e IA-së”.
Këtu ka një analogji me Revolucionin Industrial, në të cilin punëtorët kaluan nga kryerja e detyrave manuale, si thurja, në mbikëqyrjen e makinave që bënin ato detyra, si dhe trajtimin e situatave që makinat nuk mund t’i zgjidhnin (si ndërhyrja kur ato ngecnin).
Në vend që IA të vjedhë punët në tërësi, punët mund të përfshijnë gjithnjë e më shumë konfigurimin, monitorimin dhe kontrollin e sistemeve të bazuara në IA. Pa mbikëqyrjen njerëzore, spekulojnë Narayanan dhe Kapoor, IA mund të “priret më tepër për gabime për t’u konsideruar me vlerë ekonomike”.
Pasojat
Kjo, nga ana tjetër, ka pasoja për rrezikun e IA-së. Vlen të përmendet se autorët kritikojnë theksin mbi “përshtatjen” e modeleve të IA-së, që do të thotë përpjekje për të siguruar që rezultatet të përputhen me synimet e krijuesve të tyre njerëzorë. Nëse një rezultat i caktuar është i dëmshëm shpesh varet nga konteksti që njerëzit mund ta kuptojnë, por modeli nuk e zotëron, argumentojnë ata.
Një model i kërkuar të shkruajë një email bindës, për shembull, nuk mund të dallojë nëse mesazhi do të përdoret për marketing i ligjshëm apo email mashtrues (phishing). Të përpiqesh të bësh një model IA që nuk mund të keqpërdoret “është si të përpiqesh të bësh një kompjuter që nuk mund të përdoret për gjëra të këqija”, shkruajnë autorët.
Në vend të kësaj, ata sugjerojnë që mbrojtjet kundër keqpërdorimit të IA-së, për shembull për të krijuar viruse kompjuterike (malware) ose armë biologjike, duhet të fokusohen më tej, duke forcuar masat ekzistuese mbrojtëse në kibernetikë dhe biosiguri. Kjo gjithashtu rrit qëndrueshmërinë ndaj formave të këtyre kërcënimeve që nuk përfshijnë IA.
Skenarët à la Terminator i përkasin fantazisë, jo realitetit
Një mendim i tillë sugjeron një sërë politikash për të ulur rrezikun dhe për të rritur qëndrueshmërinë. Këto përfshijnë mbrojtjen e sinjalizuesve (siç shihet në shumë industri të tjera), detyrimin për të zbuluar përdorimin e IA-së (siç ndodh me mbrojtjen e të dhënave), regjistrimin për të gjurmuar shpërndarjen (si me makinat dhe dronët) dhe raportimin e detyrueshëm të incidenteve (si me sulmet kibernetike).
Me pak fjalë, artikulli përfundon se mësimet nga teknologjitë e mëparshme mund të zbatohen me sukses tek IA, dhe trajtimi i saj si “normale” çon në politika më të arsyeshme sesa trajtimi i saj si superinteligjencë e afërt.
Artikulli nuk është pa të meta. Në disa raste, ai lexohet si një polemikë kundër hiperbolës së IA-së në përgjithësi. Është i kufizuar në disa aspekte, deklaron bindje si fakte dhe jo të gjitha argumentet e tij janë bindëse, edhe pse e njëjta gjë vlen për shkrimet utopike dhe distopike.
Edhe pragmatistët e IA-së mund të mendojnë se autorët janë shumë indiferentë ndaj potencialit të tronditjes së tregut të punës, nënvlerësojnë shpejtësinë e adoptimit të IA-së, janë shumë përçmues ndaj rreziqeve të mospërshtatjes dhe mashtrimit, dhe të kënaqur me nivelin ekzistues të rregullimit.
Parashikimi i tyre se IA nuk do të jetë në gjendje të “tejkalojë në mënyrë domethënëse njerëzit e trajnuar” në parashikim apo bindje, duket çuditërisht tepër i sigurt. Dhe edhe nëse skenarët utopikë dhe distopikë janë të gabuar, IA mund të jetë ende shumë më transformuese sesa e përshkruajnë autorët.
Por shumë njerëz, kur lexojnë këtë kundërshtim të idesë se IA është diçka e jashtëzakonshme, do të bien dakord. Qasja e mesme është më pak dramatike sesa parashikimet për një “shpërthim të shpejtë” ose apokalips, prandaj nuk merr shumë vëmendje. Kjo është arsyeja pse autorët e shohin të dobishme të artikulojnë këtë pozicion: sepse ata besojnë se “një version i vizionit tonë është gjerësisht i përhapur”.
Në mes të shqetësimeve aktuale për qëndrueshmërinë e investimeve në IA, artikulli i tyre ofron një alternativë çuditërisht të zakonshme dhe madje edhe të mërzitshme ndaj histerisë për IA-në.
Një incident në një aeroport në Finlandë ka shkaktuar shumë postime në mediat sociale, por një foto dramatike që pretendonte të tregonte aeroplanin e Swiss-it të mbuluar nga dëbora nuk është e vërtetë.
Fotoja është krijuar me ndihmën e inteligjencës artificiale (AI) dhe shfaq një version shumë të ekzagjeruar të ngjarjes, që nuk përputhet me realitetin, raporton blick.ch..
Më konkretisht, një aeroplan i kompanisë Swiss u ndikua nga erërat e forta gjatë stuhisë së borës në aeroportin e Kittilä, duke u rrëshqitur në dëborë, por asnjë pasagjer nuk u lëndua.
Fotoja e shpërndarë online e përshkruante situatën në mënyrë dramatike – për shembull duke treguar aeroplanin që tërhiqej nga mjete tjera – ndërsa në realitet ngjarja ishte më pak dramatike.
Po ashtu, qarkullon edhe një video e rreme, gjithashtu e krijuar me AI, që paraqet aeroplanin duke u përmbys nga stuhia, gjë që nuk ka ndodhur në realitet.
Kompania Swiss ka theksuar se këto imazhe mund të duken spektakolare, por nuk ofrojnë një paraqitje të saktë të ngjarjes dhe nuk ndihmojnë për të kuptuar situatën në mënyrë objektive. /Telegrafi/
Polonia ka kërkuar nga Komisioni Evropian të hetojë platformën TikTok pas publikimit të përmbajtjeve të gjeneruara nga inteligjenca artificiale (AI) që, përfshirë edhe thirrje për të nxjerrë Poloninë nga Bashkimi Evropian, sipas zyrtarëve, kishte të ngjarë të ishin dezinformim rus.
Në TikTok u shfaq një profil që publikonte video me gra të reja të veshura me ngjyrat kombëtare të Polonisë dhe mesazhe që inkurajonin daljen e vendit nga BE-ja. Ky profil u bë mjaft i njohur në pak kohë, por më pas u hoq nga platforma, raportojnë mediat polake.
Zëvendësministri i Digitalizimit të Polonisë, Dariusz Standerski, tha në një letër drejtuar Komisionit Evropian se përmbajtja e tillë përbënte kërcënim për rendin publik, sigurinë e informacionit dhe proceset demokratike në Poloni dhe në të gjithë Bashkimin Evropian.
Ai gjithashtu vuri në dukje se mënyra e shpërndarjes së materialeve dhe përdorimi i materialeve sintetike audiovizuale tregonin se platforma nuk po i përmbushte detyrimet e saj si një platformë shumë e madhe online (Very Large Online Platform – VLOP).
Një zëdhënës i qeverisë polake tha se përmbajtjet ishin gati sigurisht dezinformata me origjinë ruse, duke u bazuar te elemente të sintaksës së gjuhës ruse të gjetura në video.
TikTok tha se është në kontakt me autoritetet polake dhe se ka larguar përmbajtje që shkel rregullat e platformës. Përfaqësues të Komisionit Evropian dhe të ambasadës ruse në Varshavë nuk kanë dhënë komente të menjëhershme. /Telegrafi/
Samsung njoftoi Exynos 2600 javën e kaluar si çipseti i parë 2nm në botë.
Pritet të debutojë në serinë Galaxy S26 në tremujorin e parë të vitit 2026, dhe tani kemi disa detaje shtesë në lidhje me aftësitë e inteligjencës artificiale të 2600, transmeton Telegrafi.
Çipi i ri është i pajisur me një NPU krejtësisht të re, e cila pretendohet se ofron një përmirësim prej 113% krahasuar me Exynos 2500, dhe tani marrim konfirmim se do të marrë gjithashtu një nxitje të konsiderueshme për detyrat e inteligjencës artificiale në pajisje.
Firma koreane e inteligjencës artificiale NotaAI zbuloi se teknologjia e saj e optimizimit të modelit të inteligjencës artificiale do të përdoret në Exynos 2600 për të ekzekutuar modele më të mëdha të inteligjencës artificiale direkt në pajisje.
Platforma e optimizimit të inteligjencës artificiale NetsPresso e NotaAI lejon një reduktim të konsiderueshëm të madhësisë së modeleve të inteligjencës artificiale, duke ofruar ende rezultate të sakta.
Firma specializohet në optimizimin e modeleve të inteligjencës artificiale të përshtatura për pajisjen, gjë që do t'u lejonte inxhinierëve të Samsung të ekzekutonin modele më të mëdha të inteligjencës artificiale në pajisje pa pasur nevojë për qasje në internet.
Të dy kompanitë më parë kanë punuar së bashku në optimizimet e inteligjencës artificiale të Exynos 2500 dhe 2400 dhe kanë zhvilluar së bashku zinxhirin e mjeteve Exynos AI Studio të Samsungut. /Telegrafi/
Polonia i ka kërkuar Komisionit Evropian të hetojë TikTok pasi platforma e mediave sociale ka pritur përmbajtje të gjeneruar nga inteligjenca artificiale, duke përfshirë thirrje që Polonia të tërhiqet nga BE-ja, tha ajo të martën, duke shtuar se përmbajtja ishte pothuajse me siguri dezinformim rus.
Një profil i TikTok që tregon video të grave të reja të veshura me ngjyrat kombëtare polake dhe që bën thirrje që Polonia të largohet nga BE-ja ka fituar popullaritet në javët e fundit. Profili tani është zhdukur nga platforma, transmeton Telegrafi.
"Përmbajtja e zbuluar përbën një kërcënim për rendin publik, sigurinë e informacionit dhe integritetin e proceseve demokratike në Poloni dhe në të gjithë Bashkimin Evropian," tha Zëvendësministri i Digjitalizimit, Dariusz Standerski në një letër dërguar Komisionit.
"Natyra e narrativave, mënyra se si ato shpërndahen dhe përdorimi i materialeve sintetike audiovizuale tregojnë se platforma nuk po përmbush detyrimet e vendosura mbi të si një Platformë Shumë e Madhe Online (VLOP)", shtoi ai.
Një zëdhënës i qeverisë polake tha të martën se përmbajtja ishte padyshim dezinformim rus pasi regjistrimet përmbanin sintaksë ruse.
"Ne kemi qenë në kontakt me autoritetet polake dhe kemi hequr përmbajtje aty ku shkel rregullat tona", tha një zëdhënës i TikTok për Reuters në një koment të dërguar me email.
Vendet e BE-së po marrin masa për të parandaluar çdo përpjekje të shtetit të huaj për të ndikuar në zgjedhje dhe politikën lokale, pasi paralajmëruan për spiunazh dhe sabotim të sponsorizuar nga Rusia. Rusia ka mohuar vazhdimisht ndërhyrjen në zgjedhjet e huaja.
Vitin e kaluar, Komisioni hapi procedura zyrtare kundër firmës së mediave sociale TikTok, në pronësi të ByteDance të Kinës, për shkak të dështimit të saj të dyshuar për të kufizuar ndërhyrjen në zgjedhje, veçanërisht në zgjedhjet presidenciale rumune në nëntor 2024.
Polonia i bëri thirrje Komisionit të fillojë procedurat në lidhje me shkeljet e dyshuara të Aktit gjithëpërfshirës të Shërbimeve Digjitale të bllokut, i cili rregullon mënyrën se si operojnë kompanitë më të mëdha të mediave sociale në botë në Evropë.
Sipas Aktit, platformat e mëdha të internetit si X, Facebook, TikTok dhe të tjera duhet të moderojnë dhe heqin përmbajtje të dëmshme si gjuha e urrejtjes, racizmi ose ksenofobia. Nëse nuk e bëjnë këtë, Komisioni mund të vendosë gjoba deri në 6% të xhiros së tyre vjetore në mbarë botën. /Telegrafi/