Модели языка ИИ способны обнаруживать признаки депрессии

© Луса

Исследования корейской группы показывают, что, хотя эти большие языковые модели (LLM) «демонстрируют потенциал» для обнаружения этих рисков, «перед клиническим применением необходимо улучшить их производительность и безопасность».
Группа изучила потенциал систем искусственного интеллекта (ИИ), обученных на больших объемах данных, чтобы они могли понимать и генерировать естественный язык.
Тот же потенциал демонстрирует «встраивание» — метод обработки естественного языка, преобразующий человеческий язык в математические векторы, которые также были проанализированы группой.
Исследование было основано на данных 1064 пациентов психиатрических клиник в возрасте от 18 до 39 лет, которые прошли ряд тестов на самооценку и незаконченные предложения.
Тесты на незаконченные предложения предполагают, что пациенту предлагается ряд незаконченных предложений, которые он должен закончить первыми пришедшими в голову словами, а также предоставить субъективную информацию, например, о его самооценке или межличностных отношениях.
Данные обрабатывались с помощью моделей LLM, таких как GPT-4, Gemini 1.0 Pro или Google Deepmind, а также с помощью моделей встраивания текста, таких как OpenAI text-embedding-3-large.
В исследовании говорится, что эти модели «продемонстрировали свой потенциал в оценке рисков для психического здоровья», включая стресс и самоубийство, «на основе описательных данных пациентов психиатрических клиник».
Альберто Ортис из Университетской больницы Ла-Пас (Мадрид) прокомментировал исследование, в котором он не принимал участия, и подчеркнул, что оно проводилось на пациентах, которые уже проходят психиатрическое лечение, поэтому обобщение результатов для применения этой методологии для выявления рисков среди населения в целом «на данный момент невозможно».
Ортис сообщил Science Media Centre, платформе научных ресурсов, что применение ИИ в области психического здоровья в любом случае должно будет сосредоточиться на субъективных рассказах людей, как это сделано в этом исследовании.
Однако он считал, что «одно дело — выявлять риски и проводить скрининг, а другое — лечить людей с психическими страданиями, задача, которая выходит за рамки применения технологического решения и в которой субъективность профессионала имеет решающее значение для развития терапевтической связи».
Читайте также: Первые умные очки Apple появятся в 2026 году, сообщает Bloomberg
noticias ao minuto