X
 18.05.2025 Технологија

„Чет-ГПТ“ измислува: 79 отсто од податоците неточни на тест за општо знаење

Низ историјата секогаш постоеле брилијантни, но несигурни луѓе. Сега истата аналогија сè почесто се користи за вештачката интелигенција. Според истражување на компанијата „Опен АИ“, најновите модели на „Чет-ГПТ“ и понатаму „халуцинираат“, односно измислуваат факти и тоа во загрижувачки обем.

Новите модели создаваат нови проблеми

Моделите „ГПТ-о3“ и „ГПТ-о4-мини“ беа замислени како напредни алатки што ќе ја имитираат човечката логика. За разлика од претходните генерации кои се фокусираа на течно генерирање текст, овие модели треба да „размислуваат чекор по чекор“. „Опен АИ“ дури тврдеше дека „ГПТ-о3“ може да се натпреварува со докторанди по хемија, биологија и математика.

Но, извештајот на компанијата открива сериозен проблем: „ГПТ-о3“ измислувал информации во дури една третина од задачите поврзани со јавни личности, двојно повеќе од претходниот модел, „ГПТ-о1“. Уште полош е „ГПТ-о4-мини“, кој измислувал во 48 отсто од истите задачи.

На тест за општо знаење (SimpleQA), „ГПТ-о3“ измислил 51 отсто од информациите, а „ГПТ-о4-мини“ дури 79 отсто. Тоа не се мали грешки, туку сериозна криза на доверба. Ако модел кој тврди дека е „разумен“ не проверува што кажува, туку слободно фантазира, тогаш станува опасен, а не корисен.

Повеќе размислување не значи поголема точност

Во заедницата што се занимава со вештачка интелигенција се појави теорија дека колку повеќе еден модел „размислува“, толку повеќе можности има да згреши. За разлика од поедноставните верзии што се држат до проверени факти, новите модели се впуштаат во поврзување далечни идеи, што често значи и измислување.

Од „Опен АИ“ за „Тајмс“ изјавиле дека зголемениот број измислици не мора да значи дека моделот е лош, туку дека едноставно „одговара подетално и послободно“.

Бидејќи новите модели се охрабруваат да шпекулираат, границата меѓу претпоставка и фактичка точност станува сè помаглива. Некои од „можните“ сценарија што ги нуди Чет-ГПТ немаат никаква врска со реалноста, но сепак звучат уверливо.

Ова е спротивно на целите на „Опен АИ“, како и на конкурентите како „Гугл“ и „Антропик“. Кога ќе се нарече некој модел на вештачката интелигенција „помошник“ или „копилот“, се претпоставува дека е безбеден и корисен. Но, веќе имаше случаи каде што адвокати користеле „Чет-ГПТ“ и во поднесоците приложиле целосно измислени судски случаи.

Колку е покорисен, толку има помалку простор за грешки

Со проширувањето на употребата на вештачката интелигенција во училници, канцеларии, болници и администрација, штетата од измислени информации може да биде огромна. „Чет-ГПТ“ навистина може да помогне при пишување барања за работа или анализа на податоци, но колку е поупотреблив, толку е поважно да не греши.

Не можете да му заштедите време на некој ако тој потоа мора да проверува сè до последен збор. Проблемот не е што моделот не е импресивен, „ГПТ-о3“ покажал одлични способности за кодирање и логика, туку тоа што понекогаш решава да ви каже дека вода врие на 27 °C или дека Абрахам Линколн водел поткаст.

Додека не се решат овие проблеми, секој одговор од моделите на вештачката интелигенција, па и од „Чет-ГПТ“, треба да се прима со голема доза на резерва. Како што заклучува извештајот: понекогаш „Чет-ГПТ“ е како личност со преголема самодоверба што зборува глупости.

Извор: Index.hr
Фото: Freepik
Подготвил: Тамара Гроздановски

Издвојуваме

Слични вести од Fakulteti.mk

Технологија