Բլոգերն ապացուցել է` արհեստական բանականությունը կարող է ողբերգության պատճառ դառնալ
![]() Արհեստական բանականությունը քիչ է մնացել ողբերգության պատճառ դառնա. ChatGPT չաթբոտը չի կարողացել ճանաչել աշխարհի ամենավտանգավոր բույսերից մեկը՝ թունավոր գինազոխը: Բլոգեր Քրիստին միջադեպի մասին հաղորդել է սոցիալական ցանցերում, և պատմությունն ուշադրության է արժանացել LADbible-ի կողմից: Ի պատասխան՝ չաթբոտը պնդել է, որ դա սովորական գազար է: Նեյրոնային ցանցը նույնիսկ փաստարկներ է ներկայացրել իր տեսության օգտին՝ նշելով «նուրբ բաժանված և փետրաձև տերևները», որոնք ենթադրաբար բնորոշ են գազարի գագաթներին: Օգտատերը փորձել է պարզաբանել տեղեկատվությունը՝ ուղղակիորեն հարցնելով արհեստական բանականությանը, թե արդյոք դա կարող է թունավոր գինազոխ բույսը լինել: Սակայն ալգորիթմը բազմիցս հերքել է այս ենթադրությունը: Նույնիսկ երբ օգտատերը լրացուցիչ լուսանկարներ է վերբեռնել, ChatGPT-ն շարունակել է պնդել իր սխալը: |

«Զինվորականները խորտակել են իրանական նավերը, որովհետև դա ավելի զվարճալի է». Թրամփ (տեսանյութ)
4923:11
Սմբատ Նասիբյանը զրպարտության հայց է ներկայացրել ընդդեմ Տիգրան Արզաքանցյանի
6322:48
«Մտնում են հեռախոսի բանկային հավելվածներ ու թալանում, վարկեր ձևակերպում». Սամվել Մարտիրոսյան (տեսանյութ)
7722:24
Ինչ են քննարկել Նիկոլ Փաշինյանն ու Էմանուել Մակրոնը
5921:48
Բեյրութի վրա Իսրայելի հարձակման հետևանքով զոհվել են իրանցի դիվանագետներ
8721:35
Նիդերլանդներում գինեկոլոգը գաղտնի կերպով դարձել է առնվազն 16 երեխայի հայր
15020:48
