Риски применения технологии искусственного интеллекта для психологической помощи: взгляд психолога и разработчика
Аннотация
Обоснование. В последние годы наблюдается стремительное развитие технологии искусственного интеллекта (ИИ) и ее активное внедрение в различные сферы, включая психологическую помощь. Несмотря на растущую популярность ИИ-сервисов, их применение в психотерапевтической практике сопряжено с рядом этических, технических и социально-правовых рисков. В статье рассматриваются ключевые вызовы, связанные с использованием ИИ в рамках психологической помощи, включая имитацию эмпатии, антропоморфизм, «галлюцинации» ИИ, конфиденциальность данных и вопросы ответственности.
Цель. Анализ рисков использования ИИ инструментов для психологической помощи.
Материалы и методы. Основной метод исследования – системный анализ с применением обзора научных публикаций и нормативных документов. Исследование базируется на: научных статьях (2020–2025 гг.) по психологии, ИИ и цифровой этике, эмпирических данных пользовательских взаимодействий с ИИ-сервисами, нормативных актах и рекомендациях по регулированию ИИ, а также кейсах применения ИИ для психологической помощи.
Результаты. В процессе исследования выявлены ключевые риски использования ИИ для психологической помощи. Подмена эмпатии, ИИ имитирует эмоциональную поддержку, но не обладает подлинным пониманием. Антропоморфность, пользователи приписывают ИИ человеческие качества, что может привести к зависимости от ИИ технологии. «Галлюцинации» ИИ, генерация ложных или вредных рекомендаций. Угрозы конфиденциальности, например, утечки данных и отсутствие правовых гарантий. Правовая неопределённость, отсутствие чётких норм ответственности за действия ИИ.
Результаты подчёркивают необходимость клинической валидации ИИ-сервисов и разработки этических стандартов для применения в психологической практике.
EDN: WZCUOA
Скачивания
Литература
Трунов, Д. Г. (2013). Индивидуальное психологическое консультирование. Москва: Этерна. 384 с.
Фрейманис, И. Ф. (2024). Чат-бот как инструмент психологической поддержки: исследование мнения пользователей. Социальные и гуманитарные науки: теория и практика, 4(11), 74–79. EDN: https://elibrary.ru/XZGPDX
Фрейманис, И. Ф. (2024). Чат-бот как инструмент психологической поддержки: обзор исследований. Вестник Пермского университета. Философия. Психология. Социология, (2), 250–259. https://doi.org/10.17072/2078-7898/2024-2-250-259. EDN: https://elibrary.ru/OKMZWX
Abercrombie, G., Cercas Curry, A., Dinkar, T., Rieser, V., & Talat, Z. (2023). Mirages: On Anthropomorphism in Dialogue Systems. arXiv. https://arxiv.org/abs/2305.09800
Airenti, G. (2015). The cognitive basis of anthropomorphism: From relatedness to empathy. International Journal of Social Robotics, 7(1), 117–127. https://doi.org/10.1007/s12369-014-0263-x. EDN: https://elibrary.ru/GJFUAH
Ayers, J., Poliak, A., Dredze, M., Leas, E., Zechariah, Z., Kelley, J., & Saper, S. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Internal Medicine, 183(6), 589–596. https://doi.org/10.1001/jamainternmed.2023.1838. EDN: https://elibrary.ru/RFVQOH
Chaves, A. P., & Marco, A. G. (2021). How Should My Chatbot Interact? A Survey on Social Characteristics in Human-Chatbot Interaction Design. International Journal of Human-Computer Interaction, 37(8), 729–758.
Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., Gooding, P., & Alfonso, S. (2023). To chat or bot to chat: ethical issues with using chatbots in mental health. Digital Health, 9, 20552076231183542. https://doi.org/10.1177/20552076231183542. EDN: https://elibrary.ru/XDTXQU
Defining medical liability when artificial intelligence is applied on clinical practice. (2023). Retrieved from https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10711067
Ellis, B., & Bjorklund, D. (2004). Origins of the social mind: Evolutionary psychology and child development. New York: The Guilford Press.
Epley, N., Waytz, A., Akalis, S., & Cacioppo, J. T. (2008). When we need a human: Motivational determinants of anthropomorphism. Social Cognition, 26(2), 143–155.
Fang, C. M., et al. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
Fitzpatrick, L., & Hutchinson, T. (2023). AI and Empathy: Challenges and Opportunities in Automated Mental Health Interventions. Journal of Digital Psychology, 12(2), 45–62.
Grant, C., & Ernst, J. (2023). AI companions and the illusion of empathy: Emerging risks in mental health applications. Journal of AI Ethics, 9(1), 24–38.
Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., et al. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), e0000145. https://doi.org/10.1371/journal.pmen.0000145. EDN: https://elibrary.ru/CBTBQP
Holohan, M., & Fiske, A. (2021). «Like I’m talking to a real person»: Exploring the meaning of transference for the use and design of AI based applications in psychotherapy. Frontiers in Psychology, 12, 720476. https://doi.org/10.3389/fpsyg.2021.720476. EDN: https://elibrary.ru/LXUHRL
Jacobsen, R., Cox, S., Griggio, C., & van Berkel, N. (2025). Chatbots for data collection in surveys: A comparison of four theory based interview probes. In: Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (pp. 1–21). https://doi.org/10.1145/3706598.3714128
Johnson, J. (2023). Finding AI faces in the moon and armies in the clouds: Anthropomorphising artificial intelligence in military human machine interactions. Global Society, 38, 1–16.
Jones, V. K., Yan, C., Shade, M. Y., Boron, J. B., Yan, Z., Heselton, H. J., & Dube, V. (2024). Reducing loneliness and improving social support among older adults through different modalities of personal voice assistants. Geriatrics, 9(2), 22. https://doi.org/10.3390/geriatrics9020022. EDN: https://elibrary.ru/VKTNZS
Li, C., Wang, J., Zhang, Y., Zhu, K., Wang, X., Hou, W., & Xie, X. (2023). The good, the bad, and why: Unveiling emotions in generative AI. arXiv. https://arxiv.org/abs/2312.11111
Magsumov, T. A. (2017). Family and school in Russia at the beginning of the 20th century: Attempts to bridge the gap. European Journal of Contemporary Education, 6(4), 837–846. https://doi.org/10.13187/ejced.2017.4.837. EDN: https://elibrary.ru/ZWREPV
Martinez Martin, N. (2023). Viewing CAI as a tool within the mental health care system. American Journal of Bioethics, 23(5), 57–59. https://doi.org/10.1080/15265161.2023.2191058. EDN: https://elibrary.ru/PXKHTW
McStay, A. (2018). Emotional AI: The rise of empathic media. London: SAGE Publications.
Mitchell, R. W., Thompson, N. S., & Miles, L. H. (1997). Anthropomorphism, anecdotes, and animals. Albany: SUNY Press.
Opel, D. J., Kious, B. M., & Cohen, I. G. (2023). AI as a mental health therapist for adolescents. JAMA Pediatrics, 177(12), 1253–1254. https://doi.org/10.1001/jamapediatrics.2023.4215. EDN: https://elibrary.ru/BOXYAM
Placani, A. (2024). Anthropomorphism in AI: Hype and fallacy. AI Ethics, 4, 691–698. https://doi.org/10.1007/s43681-024-00419-4. EDN: https://elibrary.ru/ECSYPA
Russell, S., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
Sexton, M., Sergeeva, A., & Soekijad, M. (2025). Do robots have to be human like? A practice based perspective on relating to robots in the wild. In: Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3706599.3720154
Iglesias, M., Sinha, C., Vempati, R., Grace, S. E., Roy, M., Chapman, W. C., & Rinaldi, M. L. (2023). Evaluating a digital mental health intervention (Wysa) for workers’ compensation claimants: Pilot feasibility study. Journal of Occupational and Environmental Medicine, 65(2), e93–e99. https://doi.org/10.1097/JOM.0000000000002762. EDN: https://elibrary.ru/USJWQH
Watson, D. (2019). The rhetoric and reality of anthropomorphism in artificial intelligence. Minds and Machines, 29, 417–440. https://doi.org/10.1007/s11023-019-09506-6. EDN: https://elibrary.ru/OVAFYF
Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. San Francisco: W. H. Freeman.
Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2021). Dive into deep learning. Retrieved from: https://d2l.ai
References
Trunov, D. G. (2013). Individual psychological counseling. Moscow: Eterna, 384 p.
Freimans, I. F. (2024). Chatbot as a tool for psychological support: A study of user opinions. Social and Humanitarian Sciences: Theory and Practice, 4(11), 74–79. EDN: https://elibrary.ru/XZGPDX
Freimans, I. F. (2024). Chatbot as a tool for psychological support: A review of research. Bulletin of Perm University. Philosophy. Psychology. Sociology, 2, 250–259. https://doi.org/10.17072/2078-7898/2024-2-250-259. EDN: https://elibrary.ru/OKMZWX
Abercrombie, G., Cercas Curry, A., Dinkar, T., Rieser, V., & Talat, Z. (2023). Mirages: On anthropomorphism in dialogue systems. arXiv. https://arxiv.org/abs/2305.09800
Airenti, G. (2015). The cognitive basis of anthropomorphism: From relatedness to empathy. International Journal of Social Robotics, 7(1), 117–127. https://doi.org/10.1007/s12369-014-0263-x. EDN: https://elibrary.ru/GJFUAH
Ayers, J., Poliak, A., Dredze, M., Leas, E., Zechariah, Z., Kelley, J., & Saper, S. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Internal Medicine, 183(6), 589–596. https://doi.org/10.1001/jamainternmed.2023.1838. EDN: https://elibrary.ru/RFVQOH
Chaves, A. P., & Marco, A. G. (2021). How should my chatbot interact? A survey on social characteristics in human chatbot interaction design. International Journal of Human Computer Interaction, 37(8), 729–758.
Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., Gooding, P., & Alfonso, S. (2023). To chat or bot to chat: Ethical issues with using chatbots in mental health. Digital Health, 9, 20552076231183542. https://doi.org/10.1177/20552076231183542. EDN: https://elibrary.ru/XDTXQU
Defining medical liability when artificial intelligence is applied in clinical practice. (2023). Retrieved from https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10711067
Ellis, B., & Bjorklund, D. (2004). Origins of the social mind: Evolutionary psychology and child development. New York: The Guilford Press.
Epley, N., Waytz, A., Akalis, S., & Cacioppo, J. T. (2008). When we need a human: Motivational determinants of anthropomorphism. Social Cognition, 26(2), 143–155.
Fang, C. M., et al. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
Fitzpatrick, L., & Hutchinson, T. (2023). AI and empathy: Challenges and opportunities in automated mental health interventions. Journal of Digital Psychology, 12(2), 45–62.
Grant, C., & Ernst, J. (2023). AI companions and the illusion of empathy: Emerging risks in mental health applications. Journal of AI Ethics, 9(1), 24–38.
Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., et al. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), e0000145. https://doi.org/10.1371/journal.pmen.0000145. EDN: https://elibrary.ru/CBTBQP
Holohan, M., & Fiske, A. (2021). “Like I’m talking to a real person”: Exploring the meaning of transference for the use and design of AI based applications in psychotherapy. Frontiers in Psychology, 12, 720476. https://doi.org/10.3389/fpsyg.2021.720476. EDN: https://elibrary.ru/LXUHRL
Jacobsen, R., Cox, S., Griggio, C., & van Berkel, N. (2025). Chatbots for data collection in surveys: A comparison of four theory based interview probes. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (pp. 1–21). https://doi.org/10.1145/3706598.3714128
Johnson, J. (2023). Finding AI faces in the moon and armies in the clouds: Anthropomorphising artificial intelligence in military human machine interactions. Global Society, 38, 1–16.
Jones, V. K., Yan, C., Shade, M. Y., Boron, J. B., Yan, Z., Heselton, H. J., & Dube, V. (2024). Reducing loneliness and improving social support among older adults through different modalities of personal voice assistants. Geriatrics, 9(2), 22. https://doi.org/10.3390/geriatrics9020022. EDN: https://elibrary.ru/VKTNZS
Li, C., Wang, J., Zhang, Y., Zhu, K., Wang, X., Hou, W., & Xie, X. (2023). The good, the bad, and why: Unveiling emotions in generative AI. arXiv. https://arxiv.org/abs/2312.11111
Magsumov, T. A. (2017). Family and school in Russia at the beginning of the 20th century: Attempts to bridge the gap. European Journal of Contemporary Education, 6(4), 837–846. https://doi.org/10.13187/ejced.2017.4.837. EDN: https://elibrary.ru/ZWREPV
Martinez Martin, N. (2023). Viewing CAI as a tool within the mental health care system. American Journal of Bioethics, 23(5), 57–59. https://doi.org/10.1080/15265161.2023.2191058. EDN: https://elibrary.ru/PXKHTW
McStay, A. (2018). Emotional AI: The rise of empathic media. London: SAGE Publications.
Mitchell, R. W., Thompson, N. S., & Miles, L. H. (1997). Anthropomorphism, anecdotes, and animals. Albany: SUNY Press.
Opel, D. J., Kious, B. M., & Cohen, I. G. (2023). AI as a mental health therapist for adolescents. JAMA Pediatrics, 177(12), 1253–1254. https://doi.org/10.1001/jamapediatrics.2023.4215. EDN: https://elibrary.ru/BOXYAM
Placani, A. (2024). Anthropomorphism in AI: Hype and fallacy. AI Ethics, 4, 691–698. https://doi.org/10.1007/s43681-024-00419-4. EDN: https://elibrary.ru/ECSYPA
Russell, S., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
Sexton, M., Sergeeva, A., & Soekijad, M. (2025). Do robots have to be human like? A practice based perspective on relating to robots in the wild. In Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3706599.3720154
Iglesias, M., Sinha, C., Vempati, R., Grace, S. E., Roy, M., Chapman, W. C., & Rinaldi, M. L. (2023). Evaluating a digital mental health intervention (Wysa) for workers’ compensation claimants: Pilot feasibility study. Journal of Occupational and Environmental Medicine, 65(2), e93–e99. https://doi.org/10.1097/JOM.0000000000002762. EDN: https://elibrary.ru/USJWQH
Watson, D. (2019). The rhetoric and reality of anthropomorphism in artificial intelligence. Minds and Machines, 29, 417–440. https://doi.org/10.1007/s11023-019-09506-6. EDN: https://elibrary.ru/OVAFYF
Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. San Francisco: W. H. Freeman.
Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2021). Dive into deep learning. Retrieved from: https://d2l.ai
Copyright (c) 2025 Inga F. Freimanis, Ivan V. Shlyapov

Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция — Некоммерческое использование — Без производных произведений») 4.0 Всемирная.


































