Elon Musk şi un grup de experţi în inteligenţă artificială şi responsabili din industria IT au făcut apel la o pauză de şase luni în pregătirea de sisteme mai puternice decât modelul GPT-4 recent lansat de laboratoarele OpenAI, avertizând într-o scrisoare deschisă asupra potenţialelor riscuri la adresa societăţii şi omenirii.
Scrisoarea publicată de institutul non-profit Future of Life şi semnată de peste 1000 de persoane - între care Elon Musk, şeful companiei Stability AI Emad Mostaque, cercetători de la laboratorul DeepMind al grupului Alphabet şi informaticieni de prestigiu ca Yoshua Bengio şi Stuart Russell - cere o pauză în dezvoltarea IA avansate până când nu vor fi create, implementate şi verificate de experţi independenţi protocoale de securitate comune pentru astfel de modele, transmite publicația neozeelandeză rnz.
"Nu ar trebui dezvoltate sisteme IA puternice decât după ce vom putea avea încredere că efectele lor sunt pozitive şi putem gestiona riscurile", se arată în scrisoare.
Aceasta explică de asemenea că sistemele de IA ce intră în competiţie cu inteligenţa umană generează potenţiale riscuri pentru societate şi civilizaţie sub forma tulburărilor economice şi politice şi îi îndeamnă pe dezvoltatorii de astfel de sisteme să conlucreze cu factorii de decizie politică şi autorităţile de reglementare.
Citeste si:
Musk, a cărui companie Tesla foloseşte IA pentru sistemul de autopilotare al maşinilor autonome, şi-a exprimat în mod repetat preocuparea în legătură cu inteligenţa artificială.
Elon Musk and a group of artificial intelligence experts and industry executives are calling for a six-month pause in training of systems more powerful than GPT-4, they said in an open letter, citing potential risks to society and humanity https://t.co/zM2jP0GnPR— Reuters (@Reuters) March 29, 2023
Luni, forţa de poliţie a UE Europol s-a alăturat la rândul ei corului de preocupări etice şi juridice cu privire la sistemele avansate de IA cum este ChatGPT, avertizând împotriva unor potenţiale utilizări abuzive ale acestora sub forma tentativelor de phishing, a dezinformării şi criminalităţii informatice.
După ce anul trecut OpenAI, cu sprijinul Microsoft, a lansat ChatGPT, concurenţa a accelerat dezvoltarea de modele similare ce integrează inteligenţa artificială generativă.
Citeste si:
Sam Altman, CEO al OpenAI, nu a semnat însă această scrisoare, menţionează Reuters, citând un purtător de cuvânt de la Future of Life.
"Scrisoarea nu este perfectă, dar este corectă: trebuie să scădem ritmul până când vom înţelege mai bine ramificaţiile", a notat Gary Marcus, profesor la Universitatea New York şi unul dintre semnatari. Sisteme puternice de IA "pot provoca daune grave (...), marii jucători sunt din ce în ce mai secretoşi în legătură cu ceea ce fac, iar societăţii îi va fi mai greu să se apere de problemele care se pot materializa", a adăugat acesta.
Sursa foto: Shutterstock / Tada Images
Calculator Salariu: Află câți bani primești în mână în funcție de salariul brut »
Te-ar putea interesa și: