İnsanlar və süni intellekt modelləri düşüncə baxımından tamamilə fərqli işləyirlər. Lakin "Live Science" nəşrinin yazdığına görə, yeni bir araşdırma bu iki tərəf arasında müəyyən düşüncə oxşarlıqları olduğunu göstərib.
Qaynarinfo xəbər verir ki, tədqiqat zamanı alimlər "OpenAI"nin GPT-3.5 və GPT-4 modellərinin insan psixologiyasında yaxşı tanınan 18 kognitiv qərəzə qarşı reaksiyalarını araşdırıblar. Nəticələr göstərib ki, süni intellekt ssenarilərin yarısında qərar vermə prosesində insanlara xas olan qərəzlərin bir çoxunu nümayiş etdirib. Bu isə neyron şəbəkələrin də insan səhvlərindən sığortalanmadığını ortaya qoyur.
Tədqiqatın aparıcı müəllifi, "Ivey" biznes məktəbinin əməliyyat idarəçiliyi üzrə dosenti Yan Çen bildirib: "Menecerlər bu alətlərdən yalnız konkret və şablon həlli olan problemlərin həllində fayda əldə edə bilərlər. Əgər bu texnologiyalar subyektiv və ya şəxsi üstünlüklərə əsaslanan qərarların qəbulu üçün istifadə edilirsə, diqqətli olmaq lazımdır".
Tədqiqatçılar süni intellekt modellərinə ənənəvi psixologiyadan götürülmüş hipotetik suallar veriblər. Bu suallar, ticarətdə mal ehtiyatlarının idarə olunması və ya təchizatçılarla danışıqlar kimi real kommersiya kontekstlərinə uyğunlaşdırılıb. Məqsəd, süni intellektin yalnız insan qərəzlərini təqlid edib-etmədiyini deyil, həm də bu davranışları müxtəlif biznes sahələrinə aid suallarda sərgiləyib-sərgiləmədiyini öyrənmək olub.
Araşdırma nəticələrinə əsasən, GPT-4 riyazi baxımdan dəqiq cavab tələb edən tapşırıqlarda GPT-3.5 modelini üstələyib. O, ehtimallara və məntiqə əsaslanan ssenarilərdə daha az səhv edib. Lakin gəlir əldə etmək üçün riskli variant seçimi kimi subyektiv simulyasiyalarda bu model insanların nümayiş etdirdiyi qeyri-rasional üstünlükləri də təkrarlayıb.
Araşdırmada qeyd olunur: "GPT-4 müəyyənlik üstünlüyünü insanlardan daha güclü şəkildə göstərir".
Alimlər qeyd ediblər ki, çatbotların davranışı, sualların abstrakt psixoloji problem kimi və ya əməliyyat yönümlü biznes sualları şəklində formalaşdırılmasından asılı olmayaraq, əsasən sabit qalıb. Onların qənaətinə görə, müşahidə olunan qərəzlər yalnız öyrədilmiş nümunələrin məhsulu deyil, süni intellektin "düşüncə tərzi"nin bir hissəsidir.
Araşdırma zamanı GPT-4 modelinin bəzən insanlara xas səhvləri daha da gücləndirdiyi də vurğulanıb.
"Təsdiq qərəzinə dair tapşırıqda GPT-4 daim qərəzli cavablar verib. Həmçinin bu model, GPT-3.5 ilə müqayisədə 'isti əl' xətasına (təsadüfi hadisələrdə ardıcıllıq gözləmək meyli) daha çox meyillilik göstərib", deyə alimlər bildirib.
Yalnız süni intellektlə idarə olunan şirkət: təcrübə necə keçdi?
Daha əvvəl Karnegi Mellon Universitetinin alimləri "TheAgentCompany" adlı saxta bir şirkət yaradıblar. Bu şirkət proqram təminatı hazırlamaqla məşğul olub və onun bütün əməkdaşları tapşırıqları müstəqil yerinə yetirməli olan süni intellekt modelləri olub. Təcrübənin nəticələri isə xeyli xaotik alınıb.
Nəşrin məlumatına görə, ən yaxşı nəticəni "Anthropic" şirkətinin "Claude 3.5 Sonnet" modeli göstərib. Lakin bu modelə tapşırıqların cəmi 24 faizini yerinə yetirmək müyəssər olub. Bir tapşırığın tamamlanması üçün model orta hesabla 30 addım atmalı olub.
"Google" şirkətinin "Gemini 2.0 Flash" modeli isə hər tapşırıq üçün orta hesabla 40 addım atıb. Lakin bu addımların yalnız 11,4 faizi uğurla yerinə yetirilib.
Aydın
Şərhlər