Süni intellektin hallüsinasiyası — süni intellekt tərəfindən fakt kimi təqdim edilən yalan və ya çaşdırıcı məlumatları ehtiva edən cavab.
Məsələn, hallüsinasiya edən bir çatbotdan şirkət üçün maliyyə hesabatı hazırlamaq istənildikdə, yanlış olaraq şirkətin gəlirinin 13,6 milyard dollar olduğunu göstərə bilər. Bu cür hadisələr insan psixologiyasındakı hallüsinasiya fenomeni ilə bənzədilərək "hallüsinasiyalar" adlanır. Bununla belə, əsas fərqlərdən biri odur ki, insan hallüsinasiyası adətən yanlış qavrayışlarla əlaqələndirilir, lakin Sİ halüsinasiyası əsassız cavablar və ya inanclar kateqoriyası ilə əlaqələndirilir. Bəzi tədqiqatçılar hesab edirlər ki, xüsusi "Sİ hallüsinasiyası" termini əsassız olaraq kompüterləri antropomorflaşdırır.
Süni intellekt hallüsinasiyası 2022-ci ildə ChatGPT kimi müəyyən böyük dil modellərinin (LLM) tətbiqi ilə ortaya çıxdı. İstifadəçilər şikayət edirdilər ki, bu cür çatbotlar çox vaxt yaratdıqları məzmuna ağlabatan səslənən təsadüfi yalanları mənasız şəkildə yerləşdirirlər. 2023-cü ilə qədər analitiklər hallüsinasiyaları LLM texnologiyasında əsas problem hesab edirdilər. Bəzi təxminlərə görə çatbotların hallüsinasiya "görmə" ehtimalı 27%-dir.
Analiz
Wired tərəfindən sitat gətirilən müxtəlif tədqiqatçılar rəqib hallüsinasiyaları yüksək ölçülü statistik hadisə kimi təsnif etmişlər və ya hallüsinasiyaları kifayət qədər təlim məlumatlarının olmaması ilə əlaqələndirmişlər. Bəzi tədqiqatçılar hesab edirlər ki, insanlar tərəfindən zamanı "hallüsinasiyalar" kimi təsnif edilən bəzi "yanlış" cavablar əslində təlim məlumatları ilə əsaslandırıla bilər və ya hətta süni intellekt insanların görə bilmədiyi "düzgün" cavabı verir.
Məsələn, insana adi bir it kimi görünən obrazın süni intellekt tərəfindən əslində (real şəkillərdə) yalnız pişiyə baxarkən görünən kiçik modellər ehtiva etdiyi görülə bilər. Süni intellekt insanların həssas olmadığı real dünyadakı vizual nümunələri oxuyur. Ancaq bu fikirlər digər tədqiqatçılar tərəfindən qəbul edilməyib. Məsələn, modellərin səthi statistikaya qarşı qərəzli ola biləcəyi və bunun rəqib təlimin real dünya ssenarilərində möhkəm olmamasına səbəb ola biləcəyi bildirildi.
İstinadlar
- "Definition of HALLUCINATION". www.merriam-webster.com (ingilis). 2023-10-21. 2023-10-07 tarixində . İstifadə tarixi: 2023-10-29.
- Joshua Maynez; Shashi Narayan; Bernd Bohnet; Ryan McDonald. On Faithfulness and Factuality in Abstractive Summarization // Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics (ACL) (2020). 2020. arXiv:2005.00661. 2023-09-26 tarixində . İstifadə tarixi: 2023-09-26.
- Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang; Madotto, Andrea; Fung, Pascale. "Survey of Hallucination in Natural Language Generation" (pdf). ACM Computing Surveys. Association for Computing Machinery. 55 (12). November 2022: 1–38. arXiv:2202.03629. doi:10.1145/3571730. 26 March 2023 tarixində . İstifadə tarixi: 15 January 2023.
- Lin, Connie. "How to easily trick OpenAI's genius new ChatGPT". Fast Company. 5 December 2022. 29 March 2023 tarixində . İstifadə tarixi: 6 January 2023.
- Edwards, Benj. "Why ChatGPT and Bing Chat are so good at making things up". Ars Technica (ingilis). 6 April 2023. 11 June 2023 tarixində . İstifadə tarixi: 11 June 2023.
- Zhuo, Terry Yue; Huang, Yujin; Chen, Chunyang; Xing, Zhenchang. "Exploring AI Ethics of ChatGPT: A Diagnostic Analysis". 2023. arXiv:2301.12867 [cs.CL].
- Seife, Charles. "The Alarming Deceptions at the Heart of an Astounding New Chatbot". Slate. 13 December 2022. 26 March 2023 tarixində . İstifadə tarixi: 16 February 2023.
- Leswing, Kif. "Microsoft's Bing A.I. made several factual errors in last week's launch demo". CNBC (ingilis). 14 February 2023. 16 February 2023 tarixində . İstifadə tarixi: 16 February 2023.
- "Chatbots May 'Hallucinate' More Often Than Many Realize". The New York Times. 2023-12-07 tarixində . İstifadə tarixi: 2023-12-07.
- Matsakis, Louise. "Artificial Intelligence May Not 'Hallucinate' After All". Wired. 8 May 2019. 26 March 2023 tarixində . İstifadə tarixi: 29 December 2022.
- Gilmer, Justin; Hendrycks, Dan. "A Discussion of 'Adversarial Examples Are Not Bugs, They Are Features': Adversarial Example Researchers Need to Expand What is Meant by 'Robustness'". . 4 (8). 2019-08-06. doi:10.23915/distill.00019.1. 2023-01-15 tarixində . İstifadə tarixi: 2023-01-24.
Əlavə ədəbiyyat
Xarici keçidlər
- Süni intellekt texnologiyalarının inkişafı və tətbiqinin sosial nəticələri
- What are AI hallucinations?
wikipedia, oxu, kitab, kitabxana, axtar, tap, meqaleler, kitablar, oyrenmek, wiki, bilgi, tarix, tarixi, endir, indir, yukle, izlə, izle, mobil, telefon ucun, azeri, azəri, azerbaycanca, azərbaycanca, sayt, yüklə, pulsuz, pulsuz yüklə, haqqında, haqqinda, məlumat, melumat, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, şəkil, muisiqi, mahnı, kino, film, kitab, oyun, oyunlar, android, ios, apple, samsung, iphone, pc, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, web, computer, komputer
Suni intellektin hallusinasiyasi suni intellekt terefinden fakt kimi teqdim edilen yalan ve ya casdirici melumatlari ehtiva eden cavab ChatGPT sehv URL esasinda movcud olmayan New York Times meqalesini izah edir ChatGPT 3 5 ingilis dilinden suni tercume ederek yeni sohbetde yeniden Yaradilis 1 6 dan RSV surreal artefakt yaradir Meselen hallusinasiya eden bir catbotdan sirket ucun maliyye hesabati hazirlamaq istenildikde yanlis olaraq sirketin gelirinin 13 6 milyard dollar oldugunu gostere biler Bu cur hadiseler insan psixologiyasindaki hallusinasiya fenomeni ile benzedilerek hallusinasiyalar adlanir Bununla bele esas ferqlerden biri odur ki insan hallusinasiyasi adeten yanlis qavrayislarla elaqelendirilir lakin SI halusinasiyasi esassiz cavablar ve ya inanclar kateqoriyasi ile elaqelendirilir Bezi tedqiqatcilar hesab edirler ki xususi SI hallusinasiyasi termini esassiz olaraq komputerleri antropomorflasdirir Suni intellekt hallusinasiyasi 2022 ci ilde ChatGPT kimi mueyyen boyuk dil modellerinin LLM tetbiqi ile ortaya cixdi Istifadeciler sikayet edirdiler ki bu cur catbotlar cox vaxt yaratdiqlari mezmuna aglabatan seslenen tesadufi yalanlari menasiz sekilde yerlesdirirler 2023 cu ile qeder analitikler hallusinasiyalari LLM texnologiyasinda esas problem hesab edirdiler Bezi texminlere gore catbotlarin hallusinasiya gorme ehtimali 27 dir AnalizWired terefinden sitat getirilen muxtelif tedqiqatcilar reqib hallusinasiyalari yuksek olculu statistik hadise kimi tesnif etmisler ve ya hallusinasiyalari kifayet qeder telim melumatlarinin olmamasi ile elaqelendirmisler Bezi tedqiqatcilar hesab edirler ki insanlar terefinden zamani hallusinasiyalar kimi tesnif edilen bezi yanlis cavablar eslinde telim melumatlari ile esaslandirila biler ve ya hetta suni intellekt insanlarin gore bilmediyi duzgun cavabi verir Meselen insana adi bir it kimi gorunen obrazin suni intellekt terefinden eslinde real sekillerde yalniz pisiye baxarken gorunen kicik modeller ehtiva etdiyi gorule biler Suni intellekt insanlarin hessas olmadigi real dunyadaki vizual numuneleri oxuyur Ancaq bu fikirler diger tedqiqatcilar terefinden qebul edilmeyib Meselen modellerin sethi statistikaya qarsi qerezli ola bileceyi ve bunun reqib telimin real dunya ssenarilerinde mohkem olmamasina sebeb ola bileceyi bildirildi Istinadlar Definition of HALLUCINATION www merriam webster com ingilis 2023 10 21 2023 10 07 tarixinde Istifade tarixi 2023 10 29 Joshua Maynez Shashi Narayan Bernd Bohnet Ryan McDonald On Faithfulness and Factuality in Abstractive Summarization Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics ACL 2020 2020 arXiv 2005 00661 2023 09 26 tarixinde Istifade tarixi 2023 09 26 Ji Ziwei Lee Nayeon Frieske Rita Yu Tiezheng Su Dan Xu Yan Ishii Etsuko Bang Yejin Dai Wenliang Madotto Andrea Fung Pascale Survey of Hallucination in Natural Language Generation pdf ACM Computing Surveys Association for Computing Machinery 55 12 November 2022 1 38 arXiv 2202 03629 doi 10 1145 3571730 26 March 2023 tarixinde Istifade tarixi 15 January 2023 Lin Connie How to easily trick OpenAI s genius new ChatGPT Fast Company 5 December 2022 29 March 2023 tarixinde Istifade tarixi 6 January 2023 Edwards Benj Why ChatGPT and Bing Chat are so good at making things up Ars Technica ingilis 6 April 2023 11 June 2023 tarixinde Istifade tarixi 11 June 2023 Zhuo Terry Yue Huang Yujin Chen Chunyang Xing Zhenchang Exploring AI Ethics of ChatGPT A Diagnostic Analysis 2023 arXiv 2301 12867 cs CL Seife Charles The Alarming Deceptions at the Heart of an Astounding New Chatbot Slate 13 December 2022 26 March 2023 tarixinde Istifade tarixi 16 February 2023 Leswing Kif Microsoft s Bing A I made several factual errors in last week s launch demo CNBC ingilis 14 February 2023 16 February 2023 tarixinde Istifade tarixi 16 February 2023 Chatbots May Hallucinate More Often Than Many Realize The New York Times 2023 12 07 tarixinde Istifade tarixi 2023 12 07 Matsakis Louise Artificial Intelligence May Not Hallucinate After All Wired 8 May 2019 26 March 2023 tarixinde Istifade tarixi 29 December 2022 Gilmer Justin Hendrycks Dan A Discussion of Adversarial Examples Are Not Bugs They Are Features Adversarial Example Researchers Need to Expand What is Meant by Robustness 4 8 2019 08 06 doi 10 23915 distill 00019 1 2023 01 15 tarixinde Istifade tarixi 2023 01 24 Elave edebiyyatWiley Jon Sons Machine hallucinations architecture and artificial intelligence Oxford John Wiley amp Sons 2022 ISBN 9781119748847 del Campo Matias Leach Neil Can Machines Hallucinate Architecture AI as Design Method Architectural Design 92 3 may 2022 6 13 doi 10 1002 ad 2807 Xarici kecidlerSuni intellekt texnologiyalarinin inkisafi ve tetbiqinin sosial neticeleri What are AI hallucinations