Поддержать команду Зеркала
Беларусы на войне
  1. В Минск начнет летать новая авиакомпания. Билет стоит всего 89 рублей
  2. Белый дом перепутал Бельгию с Беларусью и включил ее в список участников «Совета мира» Трампа
  3. На четверг объявили желтый уровень опасности. Водителям и пешеходам — приготовиться
  4. Мужчина сделал колоноскопию и умер через три недели. Семья написала уже более 10 писем в госорганы
  5. Минсвязи вводит ограничение скорости для безлимитного мобильного интернета
  6. Умерла Ирина Быкова, вдова Василя Быкова
  7. «Если бы беларусский народ победил в 2020-м, российского „Орешника“ не было бы в Беларуси». Зеленский выступил с жесткой речью в Давосе
  8. На войне в Украине погиб беларусский доброволец Алексей Лазарев
  9. «Это куда более крепкий орешек». СМИ узнали еще одну страну, где США рассчитывают сменить власть до конца года
  10. «Люди военкоматам нужны». Эксперты обнаружили новшества в осеннем призыве и рассказали, к чему готовиться тем, кому в армию весной
  11. После аварии на теплотрассе Лукашенко заметил очевидную проблему с отоплением. Ее не могут решить по парадоксальной причине — рассказываем
  12. Кремль не демонстрирует готовности к компромиссам по Украине — ISW
  13. Беларус яро поддерживал «русский мир», но кардинально поменял взгляды. Он рассказал «Зеркалу» историю своей трансформации
  14. Минский РНПЦ позвал на работу медсестер и санитарок через Threads. В соцсети спросили о зарплатах и ужаснулись: «Долго вы будете искать»


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.