Чому штучний інтелект втрачає розум - вчені
Вчені з США з’ясували, що великі мовні моделі, які навчаються на популярному, але низькоякісному контенті із соцмереж, поступово втрачають здатність логічно мислити, запам’ятовувати інформацію та зберігати етичну послідовність. Про це повідомляє Wired.
Команда з Університету Техасу в Остіні, Texas A&M та Університету Пердью дослідила вплив «вірусного» онлайн-контенту на роботу великих мовних моделей (LLM).
Науковці виявили, що коли ШІ "годують" емоційними, поверхневими публікаціями із соцмереж, він переживає своєрідне "загнивання мозку" (brain rot) — схоже на те, що відбувається з людиною після годин бездумного скролінгу стрічки.
"Ми живемо в епоху, коли інформації стає все більше, а уваги — дедалі менше. Більшість контенту створюється не для правди чи глибини, а для кліків", — пояснив Джун’юань Хон, доцент Національного університету Сінгапуру, який працював над дослідженням під час аспірантури в UT Austin.
Як проходив експеримент із ШІ
Науковці використали дві відкриті мовні моделі — Llama від Meta та Qwen від Alibaba. Їм подавали різні типи текстів — від нейтральних до емоційних і «вірусних» публікацій із соцмереж, наповнених словами на кшталт «вау», «дивись», «тільки сьогодні».
Після навчання дослідники протестували ШІ за кількома когнітивними показниками — і результати виявилися невтішними.
"Мозкове згасання" у ШІ
Моделі, які споживали низькоякісний контент:
- гірше розв’язували логічні завдання;
- мали слабшу пам’ять;
- демонстрували меншу етичну узгодженість;
- і навіть проявляли ознаки «психопатичної» поведінки.
Ці результати перегукуються з попередніми дослідженнями впливу соцмереж на людське мислення. Символічно, що слово «brain rot» ("загнивання мозку") стало словом року за версією Оксфордського словника у 2024 році.
За словами вченого, висновки мають серйозні наслідки для індустрії штучного інтелекту:
"Може здаватися, що використання вірусного контенту допомагає масштабувати навчальні дані, але насправді це повільно руйнує здатність моделі мислити, розрізняти добро і зло та зосереджуватись на складних темах".
Особливу небезпеку становить те, що сьогодні ШІ сам створює велику частку контенту для соцмереж — часто поверхневого та емоційного. Згодом цей матеріал потрапляє назад у систему як навчальні дані для нових моделей, формуючи замкнене коло деградації.
"Чим більше штучно створеного "сміття" поширюється в соцмережах, тим більше воно заражає дані, з яких навчатимуться майбутні ШІ. І навіть "чисте" повторне тренування вже не здатне це повністю виправити", — попереджає Хон.

