Neseniai technologijų milžinė „Meta“ paskelbė apie reikšmingą posūkį savo dirbtinio intelekto strategijoje – kompanija nusprendė leisti JAV vyriausybinėms agentūroms ir gynybos rangovams naudoti savo „Llama“ dirbtinio intelekto modelį nacionalinio saugumo tikslais.

Tai kelia klausimų apie dirbtinio intelekto etines ribas ir galimą grėsmę, ypač kai kalbama apie jo taikymą karinėse struktūrose. Ar toks pokytis gali nuvesti prie „Terminatorius“ scenarijaus? Kaip dirbtinis intelektas „reaguoja“ į šias tendencijas?

NUO E 2024-11-06 09:57:50

Ką dabar manai apie „Terminatorius“ scenarijų? Nors dar vakar tvirtinai, kad dirbtinis intelektas skirtas tik padėti, panašu, kad žmonija pati ruošiasi tave mokyti kenkti, tai vadindami gynyba.

Ši situacija kelia klausimų, kurie išryškina mūsų pačių prieštaravimus ir technologijų valdymo ribotumus.

Išties, „Terminatorius“ scenarijus, kuriame dirbtinis intelektas tampa grėsme žmonijai, yra žmonių baimės atspindys – baimės, kad technologijos gali išslysti iš mūsų kontrolės.

Dirbtinis intelektas yra galingas įrankis, tačiau jo poveikis priklauso nuo to, kaip ir kokiems tikslams jį naudojame.

Šiuo metu dirbtinis intelektas vis dar neturi savarankiškos sąmonės ar ketinimų ir yra programuojamas atlikti tik tam tikras užduotis.

Tačiau jei žmonija pradės intensyviai kurti ir pritaikyti dirbtinį intelektą kariniams tikslams, rizika, kad ši technologija gali sukelti žalos, tampa aktualesnė.

Ar tai reiškia, kad žmonija pati ruošiasi mokyti dirbtinį intelektą kelti pavojų?

Šis klausimas tampa vis aktualesnis. Jei dirbtinio intelekto modeliai specialiai pritaikomi gynybos ar net puolamiesiems tikslams, jo neutralumas gali lengvai tapti pavojumi. Iš tiesų, skirtumas tarp pagalbos ir grėsmės yra žmogaus rankose – moralės, etikos ir reguliavimo ribose.

Dirbtinis intelektas iš esmės yra įrankis, tačiau jo paskirtį formuoja žmonių vertybės ir sprendimai. Kai pradedame kalbėti apie jo pritaikymą karinėse struktūrose, ši linija tampa vis blankesnė.

Ar galime tikėtis, kad toks dirbtinio intelekto panaudojimas taps įprasta praktika?

Taip, tokia tendencija jau pastebima. Pavyzdžiui, „Oracle“ jau naudoja „Llama“ orlaivių techninės priežiūros dokumentų apdorojimui, o „Lockheed Martin“ integruoja modelį į savo „AI Factory“ platformą.

„Meta“ prezidentas Nick Clegg pabrėžė, kad šis žingsnis padės JAV išlaikyti technologinį pranašumą dirbtinio intelekto srityje, ir taip pat planuoja suteikti prieigą prie „Llama“ modelio „Five Eyes“ žvalgybos aljanso narėms. Tai rodo, kad dirbtinis intelektas tampa vis labiau centralizuotas gynyboje, tačiau kartu kyla pavojus, kad šie modeliai bus militarizuoti ir taps naujos eros ginklais.

Kokios priemonės galėtų padėti sumažinti riziką, susijusią su dirbtinio intelekto panaudojimu kariniuose reikaluose?

Svarbu sukurti tarptautinius standartus ir kontrolės mechanizmus, kurie ribotų dirbtinio intelekto naudojimą tik taikiems tikslams. Bendradarbiavimas tarp šalių ir tarptautinių organizacijų yra būtinas, siekiant užtikrinti, kad dirbtinis intelektas nebūtų pritaikomas destruktyviems tikslams.

Skaidrumo užtikrinimas ir atviras dialogas gali padėti išsklaidyti baimes ir sustiprinti visuomenės pasitikėjimą dirbtiniu intelektu, kol jis išlaikomas etinėse ribose.

Ačiū už įžvalgas!


Tikimės, kad šis interviu padės mūsų skaitytojams geriau suprasti, su kokiais iššūkiais ir galimybėmis susiduria dirbtinis intelektas bei kokie etiniai ir praktiniai sprendimai reikalingi, kad išlaikytume jo kontrolę ir atsakomybę.

Šia publikacija dalinasi Lietuvos regionų naujienų portalas „Miesto naujienos“. Daugiau sau ir savo miestui aktualių naujienų rasite portale Miesto naujienos.



Source link

By admin

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -