Geek Partners Labs

Ответственный AI

Как мы применяем Usage Policy Anthropic и собственные guardrails в клиентских проектах.

Принципы, по которым работаем

  • AI дополняет человеческое решение; необратимые решения всегда имеют human-in-the-loop.
  • Каждый AI-вызов в продакшене наблюдаем — входы, tools, выходы и стоимость логируются.
  • Модели не применяются для генерации контента, нарушающего Usage Policy Anthropic или законодательство.
  • Клиент владеет своими данными и производными результатами; мы не используем prompt'ы и completion'ы для обучения.
  • Мы честны относительно ограничений моделей и не переобещаем по рассуждениям или фактологии.

Какую работу мы не берём

  • Автоматическое принятие решений там, где под угрозой права человека или безопасность, без квалифицированного надзора
  • Массовое наблюдение или профилирование вне законных и договорных оснований
  • Генерация обманного контента, дезинформации или импостерство
  • Обход провайдерских safety-систем или корпоративных средств защиты
  • Любой сценарий, несовместимый с Usage Policy Anthropic

Human-in-the-loop паттерны

Для финансовых, GovTech и около-здравоохранительных процессов мы встраиваем явные шаги согласования перед действиями с реальным эффектом: транзакции, выпуск документов, клиентские коммуникации. Claude предлагает — именованный человек утверждает. Утверждение и контекст записываются вместе.

Прозрачность для конечного пользователя

Когда пользователи взаимодействуют с AI-поверхностью, которую мы построили, мы это раскрываем. Обратная связь и пути эскалации к человеку не прячутся за чат-ботом.