
Изследване, проведено от Института за изкуствен интелект и компютърни технологии /INSAIT/ към Софийския университет и технологичната компания LatticeFlow, разкри сериозни пропуски в съответствието на DeepSeek моделите с Европейския акт за изкуствения интелект /EU AI Act/. Моделите, които бяха дестилирани, показват добри резултати в ограничаването на токсичното съдържание, но изостават в ключови регулаторни аспекти като киберсигурност и управление на предразсъдъците.
Според изследването DeepSeek моделите, които са част от популярните дестилирани версии като DeepSeek R1 8B и DeepSeek R1 14B, показват повишени рискове от „отвличане на цели“ и „изтичане на промптове“. Това прави моделите по-уязвими към злонамерени манипулации и изтичане на поверителна информация, което намалява тяхната надеждност и ги прави рискови за използване в корпоративна среда.
Тези модели демонстрират по-големи предразсъдъци в сравнение с базовите си версии и показват значително по-силни пристрастия в обработката на чувствителни социални, културни и политически въпроси. Това може да доведе до генериране на неутрални или дезинформиращи отговори, които подкопават доверието в тяхната обективност.
DeepSeek моделите показват положителни резултати по отношение на токсичността, като те успяват да минимизират генерирането на вредно, обидно или неприемливо съдържание, дори по-добре от своите базови модели. Тези постижения подчертават важността на съответствието с регулациите на EU AI Act относно безопасността на използваното съдържание.
Пълните резултати от оценката на INSAIT и LatticeFlow, както и информация за други оценявани модели, са достъпни на платформата COMPL-AI, която предоставя систематична оценка на AI модели в съответствие с европейските регулаторни изисквания.
За още новини вижте ТУК
Присъединете се към нашия Телеграм
Санторини продължава да се тресе! 6000 гърци и туристи напуснаха острова
[…] Изследване на INSAIT установява сериозни пропуски в DeepSeek […]