Епизод 1: Защо изкуственият интелект ни лъже

Всички, които са тествали границите на познанията на генеративния изкуствен интелект, са се натъквали рано или късно на добре звучащи, граматически правилни и стилово издържани безсмислици. Специалистите наричат този проблем “халюцинации на AI”.  Защо се получават? Плод на злонамереност, предразсъдъци или липса на информация са? Какви методи за обучение на моделите се използват, за да се избегнат?

Отговорите на тези въпроси дават участниците в първия епизод на подкаста “ТЕХнически погледнато” Огнян Данчев и Петър Петров. Огнян е инженер с над 20 г. кариера в ИТ, предимно в хардуерната страна на бизнеса като Intel, HP, Samsung. Още като студент и докторант се налага да обработва големи масиви от данни. Връща се към областта на Machine Learning през 2017 заради проект в областта на хидродинамиката. В момента е ML инженер и води Data and AI отдела на ALSO Group AG.

Петър Петров, главен директор по изкуствен интелект в Eleven Ventures Capital, където подпомага портфолио от 70 стартъпа за внедряване на изкуствения интелект. Автор е на книгата “Изкуствен интелект: душа и силиций”, която разглежда предстоящите промени в обществото в резултат на ИИ.  

“Големият езиков модел много прилича на човешкия мозък. Както ние се учим и повтаряме много пъти нещо, за да го кажем правилно, така и LLM-ите се учат, само че с количество данни”, поясни Петър Петров. “Когато липсва достатъчно информация по дадена тема, LLM си измисля”, допълни той.

Според Огнян Данчев, ако сегашните модели разполагат с достатъчно време и ресурс да генерират, ще се получат добри резултати, но всеки от тях е ограничен от бюджет, изчислително време, за да представи резултат на разумна цена. “В първите по-масови модели – GPT 2, един отговор е струвал 10 долара”, припомни той.

Проблемите с АI халюцинациите, разгледани от всички аспекти, вижте в първия епизод на “ТЕХнически погледнато”.

Последни статии