Аннотация:В статье анализируется проблема доверия к искусственному интеллекту (ИИ). Рассматривается ряд концепций, связанных с темой доверия к ИИ, а именно «этического ИИ», «благотворного ИИ», «ответственного ИИ», «полезного ИИ» (AI for Good), «доверенного ИИ» как этапы на пути формирования и поиска решения проблемы доверия к системам с ИИ. Выделяются сильные и слабые стороны каждой из вышеназванных концепций с точки зрения их потенциала для теоретического исследования и практического решения задач, связанных с внедрением технологий на основе ИИ в различных сферах жизни. Также в статье проанализированы ограничения на пути применения концепции «доверенного ИИ» как в научной, так и практической плоскости (например, в законотворческой деятельности). Примерами таких ограничений являются: отсутствие консенсуса по вопросу правомерности применения термина доверия к неодушевленными предметам, возможные интерпретации концепции в силу неустоявшейся терминологии, указания на возможное наличие иррациональных переменных в механизме доверия, отсутствие фокуса на поставленные перед государством цели. Эти и другие ограничения демонстрируют необходимость углубления научных исследований в этой области.