Müxtəlif

Yeni bir süni intellekt vasitəsi, süni intellektlə yazılmış saxta xəbərlər və icmallarla mübarizə aparmağımıza kömək edə bilər

Yeni bir süni intellekt vasitəsi, süni intellektlə yazılmış saxta xəbərlər və icmallarla mübarizə aparmağımıza kömək edə bilər


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Son bir neçə ayda, süni zəka vasitələri xalqı idarə etmək üçün istifadə etdikləri və istifadə etdikləri ilə əlaqədar ciddi narahatlıqlar yaratdı.

Çözüm nədir? Harvard və MIT tədqiqatçılarına görə, sadəcə Skynet-i çıxarmaqdan daha yaxşı bir həll yolu var.

Süni zəkanı məğlub etməyin ən yaxşı yolu, əslində süni zəkadır, deyirlər.

İLƏ BAĞLI: ELON MUSKUN NEURALINK TƏQDİMATINDAN ƏSAS AÇIQ TƏQDİMATLAR: BƏYİN XƏSTƏLİKLƏRİNİN ÇÖZÜLMƏSİ VƏ Aİ TƏHLÜKƏSİNİN SƏHİFƏLƏNMƏSİ

AI və AI

AI saxta xəbərlər yaymaq, saxta rəylər yazmaq və şərh bölmələrini xüsusi gündəmlərlə bombalamağa yönəlmiş bir sosial media istifadəçisi kimi yaratmaq üçün istifadə edilə bilər.

Bununla birlikdə, MIT tədqiqatçılarına görə, indi süni şəkildə yaradılan saxta mətni aşkar etmək üçün də istifadə edilə bilər - görünür birinin birini bilməsi lazımdır.

Dezinformasiya texnologiyası narahatlıq doğuran bir sürətlə inkişaf etsə də, eyni geniş alət dəsti minnətdarlıqla bu tip yanlış məlumatları əldə etmək üçün istifadə edilə bilər. Saxta xəbərlər, dərin fikirlər və twitter botları, onları yaratmağa kömək edən texnologiya ilə günlərini saya bilər.

Statistik mətn nümunələrinin aşkarlanması

Harvard Universiteti və MIT-IBM Watson AI Laboratoriyası bu yaxınlarda AI tərəfindən hazırlanmış mətni ləkələyən yeni bir vasitə inkişaf etdirdi.

Nəhəng Dil Model Test Otağı (GLTR) adlanan vasitə, AI mətn generatorlarının mətndə kifayət qədər proqnozlaşdırılan statistik nümunələrdən istifadə etməsindən istifadə edir.

Bu nümunələri ortalama oxucunuz üçün tapmaq asan olmaya bilər, görünür ki, bir alqoritm bu mövzuda olduqca yaxşı bir iş görə bilər. AI aləti, mahiyyət etibarilə, mətnin bir insan tərəfindən yazılması üçün çox proqnozlaşdırıla biləcəyini deyə bilər.

Bu necə işləyir?

GLTR bir cümlədə bir sözün digərinin ardınca seçilməsinin statistik ehtimalına baxaraq mətnlərdə proqnozlaşdırıla bilməni yoxlayır.

Açılış keçidindən qaçdıq 1984 alət vasitəsi ilə George Orwell-i addımlar arasından keçirtmək və həqiqətən də gələcəkdən geri göndərilən bir Süni olmadığını sübut etmək üçün.

Daha az proqnozlaşdırılan sözlər bənövşəyi rənglə işarələnir - bunların bir mətn boyunca səpələnməsi, çox güman ki, bir insan əli ilə yazıldığını göstərir.

Digər tərəfdən yaşıl sözlər ən çox proqnozlaşdırıla bilər, sarı və qırmızı isə arada düşür.

Əlbəttə ki, mətn yaradan maşın öyrənmə vasitələrinin GLTR-yə daha çox insan kimi rast gəlmək üçün aldatmaq üçün bu bənövşəyi sözlər üzərində öyrədildiyi bir gələcəyi düşünə bilərik - burada GLTR tədqiqatçılarının davam edə biləcəyini ümid edirik.

AI insanlara qarşı?

GLTR-i sınamaq üçün tədqiqatçılar Harvard tələbələrindən AI-nin yaratdığı mətni əvvəlcə alətlə, sonra isə olmadan müəyyən etmələrini istədi.

Şagirdlər bütün saxta mətnlərin yalnız yarısını təkbaşına gördülər. Digər tərəfdən alətlə% 72-ni gördülər.

Təcrübə insanları AI ilə qarşılaşdırsa da - bəlkə də gələcəyin qorxunc bir qabaqcadan xəbər verməsi - tədqiqatçılardan biri son məqsədlərinin fərqli olduğunu söylədi:

Doktora Sebastian Gehrmann, "Hədəfimiz insan və AI əməkdaşlıq sistemlərini yaratmaqdır" dedi. Layihəyə qatılan tələbə, GLTR ilə əlaqədar bir açıqlamasında MİT-ə danışdı.

Yeni aləti özünüz sınamaq istəyirsinizsə, onu burada tapa bilərsiniz. Təcrübələri və yeni aləti izah edən bir kağız tədqiqatçılar tərəfindən bu yaxınlarda yayımlandı.

Gələcəkdə dünya liderlərinin inanılmaz dərin saxta videoları ilə böyük siyasi qarışıqlıqlara səbəb ola bilər və kütləvi şəkildə dezinformasiya yaymaq üçün süni zəkanın yaratdığı mətndən istifadə edilə bilər. Şükürlər olsun ki, eyni texnoloji də problemin həllini təmin edə bilər.


Videoya baxın: Aqsin Fateh u0026 Nefes - Yarem (Iyun 2022).