Віртуальний помічник ChatGPT робить людей ледачішими, їхні думки — стандартизованими, а мозкову активність — нижчою. Такого висновку дійшли вчені Массачусетського технологічного інституту, які дослідили, як генеративний штучний інтелект впливає на критичне мислення.
Науковці, зокрема, провели експеримент — вибрали 54 добровольців віком 18 — 39 років, розділили їх на три групи і кожній з них дали завдання написати три есе на визначену тему. Але: першій групі дозволили використовувати ChatGPT, другій — пошуковик Google, а третя група мала працювати самостійно, тобто без будь-яких підказок. Увесь цей час дослідники стежили за мозковою активністю учасників експерименту з допомогою електроенцефалографії (ЕЕГ).
Якими виявилися результати? Ті, хто використовував ChatGPT, підготували надзвичайно схожі есе, в яких не було оригінальної думки, — їхні тексти спиралися на ті самі висловлювання та ідеї. Запрошені учителі, які оцінювали твори, назвали їх великою мірою “бездушними”. Водночас у тих, хто використовував штучний інтелект, ЕЕГ зафіксувала низький рівень виконавчого контролю та залученості уваги. До моменту написання третього із серії есе багато авторів перекладали майже всю роботу на ChatGPT.
Група, яка писала самостійно, використовувала свій мозок на максимум — краще працювали альфа-, тета- та дельта-діапазони мозкових хвиль, які відповідають за креативність, продукування ідей, завантаження пам’яті та обробку інформації. Навіть у тих, хто використовував Google, мозок напружувався значно активніше, ніж у цілковитих адептів ChatGPT.
На цьому експеримент не закінчився. Після написання трьох есе піддослідним запропонували переписати одну з попередніх робіт. Однак ті, хто використовував ChatGPT, мали зробити це без допоміжних інструментів. А от групі, яка покладалась тільки на себе, навпаки, дозволили використовувати штучний інтелект. За результатами цього етапу з’ясувалося, що перша група мало що пам’ятала зі своїх есе — альфа- і тета-хвилі їхнього мозку виявились слабшими, тож їм не вдалося вдосконалити твір. Друга група учасників, навпаки, продемонструвала хороші результати. ЕЕГ зафіксувала значне збільшення зв’язків їхнього мозку у всіх діапазонах. Науковці кажуть, це дає надію на те, що штучний інтелект, якщо його використовувати правильно, може поліпшити процес навчання, а не погіршити його.
— Чат GPT та інші застосунки штучного інтелекту вже вкорінені у життя людей, які користуються інтернетом та сучасними девайсами, покликаними нібито допомагати нам, — каже кандидатка філософських наук, психологиня Антоніна Євтодюк. — І треба розуміти, що незалежно від того, чи ми використовуємо ChatGPT, чи Google, чи будьяку іншу допоміжну систему штучного інтелекту, з нею завжди взаємодіє людський мозок. А людський мозок — це унікальна структура, яка складається із 86 мільярдів нейронів. Левова частка нейронів зосереджена в корі великих півкуль мозку — саме вона відповідає за свідомість, мислення, мовлення, пам’ять та складні процеси.
Нейрони “спілкуються” між собою завдяки синапсам — саме через них передають сигнали один одному. В мозку дитини, яка щойно народилася, може бути близько 50 трильйонів синапсів. А в перший місяць життя їх кількість зростає до 1 квадрильйона (це одиниця з п’ятнадцятьма нулями!). Завдяки цьому малюк має величезний потенціал до навчання, засвоєння мов, моторики, сприйняття світу. Але з віком частина синапсів “відсіюється”, залишаючи найпотрібніші з’єднання для ефективної роботи мозку.
Якщо змалку привчати дитину до використання системи штучного інтелекту як до універсального джерела знань, це означатиме, що ми ставимо дитячий мозок на милиці. Замість пошуку, розвитку і творення він просто формально виконуватиме завдання.
— Для мене те, що ChatGPT може зашкодити людині, — абсолютно очевидна річ, — додає завідувач лабораторії психології мас та спільнот Інституту соціальної та політичної психології НАПН України Вадим Васютинський. — Насправді звичайний калькулятор — це також певною мірою штучний інтелект, хоч ми його так не називаємо. Адже це прилад, який виконує когнітивні функції замість людини.
Я, наприклад, можу подумки перемножити 48 на 112. Але це вимагатиме від мене певних зусиль — треба тримати в голові певні числа, запам’ятовувати і так далі. Також я можу взяти калькулятор і за три секунди виконати зазначену дію. Це добре чи погано? Добре. Бо, перемноживши задані числа, я можу йти далі і робити серйознішу справу, для якої потрібне добуте значення. Але не варто користуватися калькулятором дітям, які щойно опановують функції додавання, віднімання, множення, ділення. Бо якщо навчити їх множити 2 на 2 через калькулятор, то вони ніколи не опанують функції множення.
Щось схоже нині маємо зі штучним інтелектом. Він у багатьох сферах може допомагати нам. Але тотально використання ChatGPT шкодить, зокрема — учням та студентам. Суть навчання у школі, а потім в університеті не в тому, щоби просто прочитати підручник і розповісти написане, а у вмінні здобувати інформацію, робити на її базі власні висновки та далі щось створювати (не обов’язково щось епохальне). ChatGPT, на жаль, стоїть цьому на заваді. Якщо штучний інтелект захопить буквально всі сфери, то буде кілька відсотків розумних і творчих людей, незалежних від його впливу, і буде основна маса тих, чий інтелектуальний рівень знизиться. Це стосується покоління, яке підростає нині.
— Які поради можете дати тут батькам?
● А. Євтодюк:
— У всьому має бути міра. Як казали у Стародавній Греції, їжа може бути ліками і може бути отрутою. Те саме зі штучним інтелектом. Людина, яка постійно використовує ChatGPT, не виробляє навичок пошуку й перевірки інформації і навичок критичного мислення, а отже, не розвивається, а деградує.
Зауважу, що в людському мозку є так звані дзеркальні нейрони, які відповідають за взаємодію. І якщо дитина переважно взаємодіє з чатом GPT, то постає питання: чи довірятиме вона світу людей, чи буде хтось у її оточенні такий же компетентний, як чат GPT, який може і картинку згенерувати, і поспілкуватися, і ніби розрадити? Найімовірніше, така дитина не матиме навички здорової комунікації з іншими людьми.
Якщо ми використовуємо ChatGPT в освітньому процесі, то тим паче маємо бути обережними. Адже сучасна освіта не дає знань на все життя, вона вчить шукати інформацію, але — з надійних джерел. Чи можемо ми на 100% бути певні у надійності джерел чата GPT? Звісно, можна його запитати: “А звідки ти це взяв?” І тут маємо просто повірити чату на слово, що інформація з компетентних джерел. Та чи ці джерела справді компетентні й правдиві, ми не знаємо.