Ново истражување на Европската радиодифузна унија открива загрижувачка стапка на грешки кај популарните чет-ботови со вештачка интелигенција. Системите редовно измислуваат информации, па дури и наведуваат лажни извори.
Луѓето секојдневно им поставуваат прашања за изборни резултати, за сумирање на вести или за информации поврзани со конфликтите на Блискиот Исток. Само „Чет-ГПТ“ на неделно ниво го користат околу 800 милиони корисници во светот. За многумина, овие дигитални асистенти веќе го заменија класичното интернет-пребарување.
Но, ваквата доверба е ризична, покажува новото истражување на Европската радиодифузна унија, здружение на 68 јавни радиодифузери од 56 земји, кое систематски ја тестирало точноста на најпопуларните системи со вештачка интелигенција.
Резултатот е вознемирувачки: „Чет-ГПТ“, „Клод“, „Џеминај“ и други чет-ботови измислуваат до 40 отсто од своите одговори, претставувајќи ги како факти.
Вештачката интелигенција убедливо лаже
Популарниот „Чет-ГПТ“ тврди дека папата Франциск сè уште е жив, „Копајлот“ на „Мајкрософт“ не знае дека Шведска е членка на НАТО, а „Џеминај“ на „Гугл“ смета дека повторниот избор на Доналд Трамп е „можен“, иако тоа веќе се случило.
- Овие системи звучат уверливо, иако често изнесуваат целосно неточни работи. Тоа ги прави особено опасни за неискусните корисници бидејќи грешките не се веднаш очигледни - предупредува економистот Петер Пош од Техничкиот универзитет во Дортмунд.
Феноменот е познат како „халуцинација“: вештачката интелигенција измислува информации што изгледаат логично, но немаат вистинска фактичка основа. Најчесто се појавува при обработка на локални настани, актуелни вести или кога треба да се поврзат повеќе различни податоци.
Закана за демократијата
Што значи тоа за општеството во кое сè повеќе луѓе ги добиваат информациите од чет-ботови? Последиците се веќе видливи: лажни информации се шират преку социјалните мрежи бидејќи корисниците споделуваат „факти“ што ги генерира вештачката интелигенција без проверка. Учениците и студентите во своите трудови вклучуваат измислени податоци. Граѓаните можат да носат политички одлуки врз основа на неточни тврдења.
Особено е проблематично што многу корисници не знаат дека чет-ботовите можат да халуцинираат, па веруваат дека технологијата е објективна и точна, што е опасна заблуда.
Дополнително, системите понекогаш лажно наведуваат извори како што се германските јавни сервиси, што ја нарушува довербата во етаблираните медиуми.
Што покажа истражувањето?
Истражувачите тестирале чет-ботови со стотици фактички прашања за историски настани, наука и актуелни вести. Зависно од темата, стапката на грешки се движела од 15 до 40 отсто. Ниту еден систем не дал беспрекорно точни одговори.
Зошто вештачката интелигенција греши?
Проблемот лежи во природата на технологијата: чет-ботовите не разбираат што зборуваат. Тие ги предвидуваат следните зборови врз основа на огромни количини на текст, без да можат да проверат дали тврдењата се точни.
Технолошките компании се свесни за тие недостатоци и работат на решение: интегрираат бази на податоци, подобро наведување извори и обука на моделите, но халуцинациите засега остануваат проблем што не може да се реши.
Како да се заштитат корисниците?
Никогаш не верувајте им слепо на чет-ботовите. Секогаш проверувајте важни информации преку сигурни извори. За вести и факти, секогаш потпирајте се на традиционални медиуми. Бидете особено внимателни со политички, здравствени и финансиски теми.
Училиштата и универзитетите треба да ги учат учениците и студентите на медиумска писменост и да ги учат младите како да препознаваат дезинформации генерирани од вештачка интелигенција.
Извор:
n1info.hr
Фото: Unsplash