Словарь ИИ

Время на прочтение: 23 минут(ы)

Translator

 

Translator
 
 
 

Translator
 
 
 

 

Translator

 

1. Искусственный интеллект (ИИ)
 Область компьютерных наук, которая фокусируется на создании интеллектуальных систем, способных выполнять задачи, которые обычно требуют человеческого интеллекта, такие как распознавание речи, распознавание изображений и принятие решений.
2. Машинное обучение (МО)
 Подмножество ИИ, которое включает использование алгоритмов и статистических моделей, позволяющих компьютерам учиться и делать прогнозы или решения на основе данных без явного программирования.
3. Глубокое обучение
 Тип машинного обучения, использующий искусственные нейронные сети с несколькими уровнями для обработки и анализа данных, часто используемый в таких задачах, как распознавание изображений и речи.
4. Нейронная сеть
 Тип математической модели, вдохновленной структурой и функционированием человеческого мозга, используемый в глубоком обучении, чтобы позволить машинам учиться и принимать решения.
5. Обработка естественного языка (NLP)
 Подобласть ИИ, которая фокусируется на том, чтобы позволить машинам понимать, интерпретировать и реагировать на человеческий язык осмысленным и актуальным образом.
6. Компьютерное зрение
 Область ИИ, которая включает использование компьютеров для интерпретации и понимания визуальной информации из мира, такой как изображения и видео.
7. Обучение с подкреплением
 Тип машинного обучения, при котором агент учится принимать решения и выполнять действия в среде, чтобы максимизировать сигнал вознаграждения, часто используемый в автономных системах и робототехнике.
8. Алгоритм
 Набор инструкций или правил, которым следует компьютер для решения конкретной проблемы или выполнения конкретной задачи.
9. Наука о данных
 Междисциплинарная область, включающая сбор, анализ и интерпретацию данных для получения информации и поддержки процессов принятия решений, часто используемая в сочетании с ИИ для обучения моделей машинного обучения.
10. Этика в ИИ
 Рассмотрение этических последствий и социального воздействия ИИ, включая такие темы, как предвзятость, справедливость, прозрачность, подотчетность и конфиденциальность, при разработке, развертывании и использовании систем ИИ.
11. Общий искусственный интеллект (AGI)
 Гипотетическая концепция ИИ, который обладает способностью понимать, учиться и применять интеллект для решения широкого круга задач, подобно человеческому интеллекту.
12. Интернет вещей (IoT)
 Сеть взаимосвязанных физических устройств, которые взаимодействуют друг с другом и обмениваются данными, часто используемая в сочетании с ИИ для обеспечения интеллектуальных и автономных систем.
13. Большие данные
 Чрезвычайно большие и сложные наборы данных, которыми трудно управлять, обрабатывать и анализировать с использованием традиционных методов, часто используемых в машинном обучении для обучения моделей и прогнозирования.
14. Контролируемое обучение
 Тип машинного обучения, при котором модель обучается с использованием помеченных данных, где предоставляется правильный вывод, чтобы делать прогнозы или принимать решения.
15. Неконтролируемое обучение
 Тип машинного обучения, при котором модель обучается с использованием неразмеченных данных, где правильный вывод не предоставляется, для выявления закономерностей, взаимосвязей или аномалий в данных.
16. Передача обучения
 Метод машинного обучения, при котором модель, обученная одной задаче, используется для повышения производительности другой связанной задачи, часто используется для использования существующих знаний и уменьшения потребности в обширных обучающих данных.
17. Предвзятость
 В контексте ИИ предвзятость означает наличие систематических ошибок или несправедливости в прогнозах или решениях, принимаемых системами ИИ, часто в результате необъективных данных, необъективных алгоритмов или необъективного обучения модели.
18. Объяснимый ИИ (XAI)
 Область ИИ, которая фокусируется на разработке систем ИИ, которые являются прозрачными и могут предоставить понятные объяснения своих прогнозов или решений, чтобы повысить доверие, подотчетность и интерпретируемость.
19. Человек в петле
 Подход в ИИ, при котором человеческий вклад и обратная связь интегрируются в процесс обучения модели или принятия решений, часто используемый для улучшения производительности модели, уменьшения предвзятости и обеспечения этических соображений.
20. Развертывание модели
 Процесс интеграции обученной модели машинного обучения в производственную среду, где ее можно использовать для прогнозирования или принятия решений в реальном времени.
21. Оценка модели
 Процесс оценки производительности и точности обученной модели машинного обучения с использованием различных показателей и методов для определения ее эффективности в решении поставленной задачи.
22. Интерпретируемость модели
 Способность понимать и интерпретировать решения или прогнозы, сделанные моделью машинного обучения, что часто важно для обеспечения прозрачности, доверия и подотчетности в системах ИИ.
23. Гиперпараметры
 Параметры модели машинного обучения, которые задаются перед процессом обучения и влияют на производительность модели, например скорость обучения, размер пакета и количество слоев.
24. Переобучение
 Явление в машинном обучении, когда модель хорошо работает с обучающими данными, но не может обобщить новые, невидимые данные, часто вызванное слишком сложной моделью или недостатком обучающих данных.
25. Обучение ансамблю
 Метод машинного обучения, который включает объединение прогнозов нескольких моделей для повышения общей производительности и точности прогнозов.
26. Разработка функций
 Процесс выбора, преобразования или создания соответствующих функций или переменных из необработанных данных для повышения производительности модели машинного обучения.
27. Предварительная обработка
 Этап машинного обучения, который включает очистку, нормализацию или преобразование необработанных данных в формат, который можно использовать для обучения модели, часто включая такие задачи, как очистка данных, масштабирование функций и кодирование данных.
28. Предвзятость развертывания
 Смещение, которое может возникнуть в реальном применении систем ИИ из-за различий между данными обучения и средой развертывания, часто требует постоянного мониторинга и усилий по смягчению последствий.
29. Прочность
 Способность модели машинного обучения хорошо работать и делать точные прогнозы даже в условиях шума, неопределенности или атак со стороны противника.
30. ИИ, сохраняющий конфиденциальность
 Область искусственного интеллекта, в которой основное внимание уделяется разработке методов и методов для защиты конфиденциальности и конфиденциальности данных, используемых в машинном обучении, гарантирующих, что конфиденциальная информация не будет раскрыта или скомпрометирована.
31. Объяснимый ИИ (XAI)
 Область ИИ, целью которой является разработка моделей и систем, которые могут давать понятные и интерпретируемые объяснения своих прогнозов или решений, повышая доверие, подотчетность и прозрачность.
32. Обучение с подкреплением
 Тип машинного обучения, при котором агент учится принимать решения или совершать действия в среде, чтобы максимизировать кумулятивный сигнал вознаграждения, часто используемый в таких областях, как робототехника, игры и автономные системы.
33. Передача обучения
 Метод машинного обучения, при котором предварительно обученная модель, обычно обученная на большом наборе данных, используется в качестве отправной точки для обучения новой модели на меньшем связанном наборе данных, что позволяет проводить более быстрое и эффективное обучение модели.
34. Неконтролируемое обучение
 Тип машинного обучения, при котором модель учится на немаркированных данных без какого-либо явного контроля или помеченных примеров, часто используется для таких задач, как кластеризация, обнаружение аномалий и уменьшение размерности.
35. Обработка естественного языка (NLP)
 Область ИИ, которая позволяет компьютерам понимать, интерпретировать и генерировать человеческий язык, часто используемый в таких приложениях, как анализ текста, анализ настроений, машинный перевод и чат-боты.
36. Компьютерное зрение
 Область ИИ, которая включает в себя обучение компьютеров интерпретировать визуальную информацию из мира, такую ​​как изображения или видео, и понимать визуальные данные, используемые в таких приложениях, как распознавание изображений, обнаружение объектов и распознавание лиц.
37. Глубокое обучение
 Подобласть машинного обучения, которая включает обучение искусственных нейронных сетей с несколькими уровнями для автоматического изучения иерархических представлений данных, часто используемых в таких областях, как распознавание изображений и речи, обработка естественного языка и системы рекомендаций.
38. Пограничные вычисления
 Концепция обработки данных и выполнения вычислений в источнике генерации данных или рядом с ним вместо того, чтобы полагаться исключительно на облачную обработку, часто используемую в системах ИИ, требующих обработки в реальном времени или с малой задержкой.
39. Предвзятость в ИИ
 Наличие систематических ошибок или дискриминации в системах ИИ, часто возникающих из-за предвзятых данных обучения, предвзятых алгоритмов или предвзятого дизайна, приводящих к несправедливым или дискриминационным результатам и требующих тщательных мер по смягчению последствий для обеспечения справедливости, подотчетности и этичного использования.
40. Объяснимость
 Способность понимать и объяснять решения или прогнозы, сделанные системой ИИ, что часто необходимо для укрепления доверия, устранения предубеждений и обеспечения прозрачности приложений ИИ.
41. Этика ИИ
 Раздел этики, который фокусируется на ответственной разработке, развертывании и использовании систем ИИ, включая такие соображения, как справедливость, прозрачность, подотчетность, конфиденциальность, предвзятость и влияние на общество.
42. Предвзятость данных
 Смещение, которое может быть введено в системы ИИ из-за смещенных данных, используемых для обучения, что приводит к смещенным прогнозам или решениям и требует тщательного сбора данных, предварительной обработки и методов устранения смещения.
43. Федеративное обучение
 Распределенный подход к машинному обучению, при котором несколько устройств или серверов взаимодействуют для коллективного обучения общей модели, сохраняя децентрализованность данных и сохраняя конфиденциальность, часто используется в сценариях, когда данные не могут быть централизованы из-за проблем с конфиденциальностью или нормативными требованиями.
44. AutoML (автоматическое машинное обучение)
 Использование автоматизированных инструментов, методов и алгоритмов для автоматического поиска, выбора и оптимизации моделей машинного обучения, гиперпараметров и разработки функций, что снижает потребность в ручном вмешательстве и опыте в процессе разработки модели.
45. Управление ИИ
 Структура политик, правил и руководств, регулирующих разработку, развертывание и использование систем ИИ, направленных на обеспечение этичного, прозрачного и ответственного использования ИИ в различных областях, включая промышленность, здравоохранение, финансы и правительство.
46. ​​Человек в цикле (HITL)
 Подход к ИИ, при котором люди интегрируются в цикл принятия решений системы ИИ, обеспечивая вход, обратную связь или надзор, часто используемый в таких приложениях, как принятие решений с помощью ИИ, сотрудничество человека и ИИ и рекомендации на основе ИИ. системы.
47. Состязательное машинное обучение
 Изучение уязвимостей и атак на модели машинного обучения, когда вредоносные входные данные или возмущения преднамеренно создаются для обмана или манипулирования прогнозами модели, что приводит к потенциальным рискам безопасности и требует надежных средств защиты и контрмер.
48. ИИ для общественного блага
 Применение методов и технологий искусственного интеллекта для решения социальных проблем и содействия положительному социальному воздействию, такому как здравоохранение, образование, борьба с бедностью, охрана окружающей среды и реагирование на стихийные бедствия.
49. Уменьшение предвзятости ИИ
 Методы и стратегии, используемые для выявления, смягчения и уменьшения предвзятости в системах ИИ, включая повторную выборку, повторное взвешивание, состязательное обучение и алгоритмы машинного обучения с учетом справедливости, направленные на обеспечение честных и непредвзятых результатов в приложениях ИИ.
50. Прозрачность ИИ
 Уровень открытости, ясности и понятности операций, решений и прогнозов системы ИИ, часто достигаемый с помощью таких методов, как объяснимый ИИ (XAI), интерпретируемость модели и визуализация, что позволяет заинтересованным сторонам понять систему ИИ и доверять ей.
51. Надежность ИИ
 Способность системы ИИ поддерживать свою производительность и точность в различных условиях, включая зашумленные или враждебные входные данные, различные среды и неожиданные сценарии, часто достигаемая с помощью таких методов, как надежная оптимизация, ансамблевые методы и регуляризация моделей.
52. Объяснимость ИИ
 Способность системы ИИ давать четкие и понятные объяснения своим прогнозам, решениям или действиям, позволяя пользователям понять аргументацию и логику выходных данных системы, а также способствуя доверию, подотчетности и интерпретируемости.
53. Интерпретируемость ИИ
 Степень, в которой внутренние процессы, функции или представления системы ИИ могут быть поняты и объяснены в понятных человеку терминах, часто достигается с помощью таких методов, как анализ важности функций, визуализация и извлечение правил.
54. Осведомленность о предвзятости ИИ
 Распознавание и понимание потенциальных предубеждений, которые могут возникнуть в системах ИИ из-за необъективных данных, алгоритмов или дизайнерских решений, а также упреждающие шаги, предпринятые для выявления, измерения и смягчения таких предубеждений для обеспечения справедливости, справедливости и инклюзивности.
55. Справедливость ИИ
 Принцип обеспечения справедливого и непредвзятого отношения к различным группам или отдельным лицам системой ИИ, независимо от их демографических характеристик, и недопущения дискриминации, предубеждений или несправедливости в результатах системы, часто достигаемый с помощью таких методов, как машинное обучение с учетом справедливости, справедливость. метрики и устранение предвзятости.
56. Ответственность ИИ
 Принцип возложения на системы ИИ и их разработчиков, пользователей или операторов ответственности за последствия своих действий, решений или прогнозов, а также обеспечение их прозрачности, объяснимости и надлежащего контроля, аудита и регулирования.
57. Конфиденциальность ИИ
 Защита личной информации и конфиденциальности данных отдельных лиц в контексте систем искусственного интеллекта, включая сбор, хранение, совместное использование и использование данных, а также соблюдение соответствующих законов, правил и этических норм для обеспечения конфиденциальности и безопасности пользовательских данных.
58. Безопасность ИИ
 Защита систем ИИ от несанкционированного доступа, взлома или злонамеренных атак, которые могут поставить под угрозу их целостность, конфиденциальность или доступность, часто достигается с помощью таких методов, как шифрование, аутентификация и надежное развертывание.
59. Структура управления ИИ
 Комплексный набор политик, принципов и руководств, которые определяют ответственную и этичную разработку, развертывание и использование систем ИИ с учетом правовых, этических, социальных и технических соображений и обеспечивают соответствие систем ИИ человеческим ценностям и социальным нормам. цели.
60. Принятие ИИ
 Процесс интеграции технологий и приложений ИИ в различные области и отрасли, включая планирование, разработку, внедрение и оценку систем ИИ, а также обеспечение того, чтобы они приносили пользу, приносили пользу и оказывали положительное влияние на общество, экономику и отдельных людей.
61. Правила ИИ
 Разработка и обеспечение соблюдения законов, нормативных актов и политик, регулирующих разработку, развертывание и использование систем ИИ, с целью обеспечения ответственных, этичных и подотчетных методов ИИ, защиты прав пользователей и устранения потенциальных рисков и проблем, связанных с технологии ИИ.
62. Комитет по этике ИИ
 Группа экспертов или заинтересованных сторон, ответственных за предоставление руководства, надзора и рекомендаций по этическим последствиям разработки и использования ИИ, рассмотрение и оценку проектов ИИ с точки зрения этических соображений, а также обеспечение того, чтобы технологии ИИ разрабатывались и использовались в соответствии с этическими нормами. принципы и ценности.
63. Прозрачность ИИ
 Принцип обеспечения прозрачности и понятности систем ИИ и их процессов для пользователей, заинтересованных сторон и широкой общественности, включая предоставление четких объяснений функциональности системы, процессов принятия решений и использования данных для укрепления доверия, подотчетности и понимания пользователей.
64. Сотрудничество с ИИ
 Практика объединения междисциплинарных групп, включая исследователей, разработчиков, политиков и других заинтересованных сторон, для совместной работы над проектами ИИ, обмена знаниями, опытом и точками зрения, а также для обеспечения целостного подхода к разработке и внедрению ИИ.
65. Обучение ИИ
 Процесс предоставления образования и обучения концепциям, технологиям, этике и передовым методам ИИ для различных заинтересованных сторон, включая разработчиков, пользователей, политиков и широкую общественность, для повышения осведомленности, продвижения ответственных методов ИИ и содействия хорошо информированному ИИ. сообщество.
66. Оценка воздействия ИИ
 Оценка потенциального социального, экономического и экологического воздействия систем ИИ, включая их преимущества и риски, для понимания и смягчения любых непредвиденных последствий, а также для обеспечения разработки и использования технологий ИИ в соответствии с общественными ценностями и целями.
67. Орган управления ИИ
 Регулирующий или надзорный орган, ответственный за мониторинг и регулирование разработки и использования ИИ, установление стандартов, руководств и политик для технологий ИИ, а также обеспечение того, чтобы системы ИИ разрабатывались и использовались в соответствии с этическими, юридическими и общественными требованиями.
68. Аудит ИИ
 Процесс проведения регулярных проверок систем ИИ для оценки их соответствия этическим, правовым и нормативным стандартам, включая использование данных, алгоритмическую справедливость, прозрачность и подотчетность, а также принятие корректирующих мер, когда это необходимо для обеспечения ответственной практики ИИ.
69. Ответственные инновации ИИ
 Подход к разработке технологий ИИ с учетом потенциального воздействия на общество, экономику и отдельных лиц, а также обеспечение того, чтобы системы ИИ разрабатывались, развертывались и использовались ответственно, этично и с учетом их более широких последствий.
70. Управление рисками ИИ
 Практика выявления, оценки и снижения рисков, связанных с технологиями ИИ, включая предвзятость, уязвимости в системе безопасности, потенциальный вред для пользователей или общества, а также принятие упреждающих мер для минимизации рисков и обеспечения ответственной разработки и использования систем ИИ.
71. Ответственность ИИ
 Принцип, согласно которому разработчики и пользователи ИИ должны нести ответственность за действия и последствия систем ИИ, в том числе устранять любые предубеждения, ошибки или вредные последствия, связанные с технологиями ИИ, а также быть прозрачными и подотчетными за свои решения и действия, связанные с разработкой и внедрением ИИ. развертывание.
72. Справедливость ИИ
 Концепция обеспечения того, чтобы системы ИИ не дискриминировали какую-либо конкретную группу или человека, а также чтобы они были разработаны и обучены так, чтобы быть справедливыми, непредвзятыми и беспристрастными в своих процессах принятия решений, чтобы предотвратить дискриминацию или увековечивание социальных предубеждений.
73. Объяснимость ИИ
 Способность систем ИИ давать понятные объяснения своих решений и действий, позволяя пользователям и заинтересованным сторонам понять, как и почему определенные решения были приняты системой ИИ, и обеспечивая прозрачность, доверие и подотчетность.
74. Конфиденциальность ИИ
 Защита личных данных и прав на неприкосновенность частной жизни в контексте разработки и использования ИИ, в том числе обеспечение того, чтобы системы ИИ разрабатывались и развертывались с соблюдением законов, нормативных актов и этических соображений, а также чтобы пользовательские данные обрабатывались ответственно и безопасно.
75. Уменьшение предвзятости ИИ
 Процесс выявления, смягчения и устранения предубеждений в системах ИИ, включая предубеждения в данных, алгоритмах и процессах принятия решений, для обеспечения того, чтобы технологии ИИ были справедливыми, беспристрастными и не увековечивали дискриминацию или неравенство.
76. Надежность ИИ
 Устойчивость систем ИИ к атакам со стороны противника, ошибкам и неожиданным вводным данным, гарантирующая, что технологии ИИ надежны, точны и способны работать в реальных сценариях без ущерба для их производительности или безопасности.
77. Структура управления ИИ
 Комплексный набор политик, руководств и передовых практик, обеспечивающих основу для ответственной разработки, развертывания и использования технологий ИИ с учетом этических, правовых, социальных и технических аспектов управления ИИ.
78. Взаимодействие с заинтересованными сторонами ИИ
 Практика вовлечения различных заинтересованных сторон, включая пользователей, политиков, отраслевых экспертов и гражданское общество, в процессы принятия решений, связанных с разработкой и внедрением ИИ, для обеспечения учета различных точек зрения и повышения прозрачности, инклюзивности и подотчетности.
79. Соответствие ИИ
 Соблюдение правовых, нормативных и этических требований при разработке и использовании технологий ИИ, в том числе обеспечение того, чтобы системы ИИ соответствовали соответствующим законам, нормативным актам и руководствам, а также чтобы они использовались в соответствии с этическими принципами и социальными нормами. ценности.
80. Надежность ИИ
 Общая надежность, подотчетность и этическая обоснованность систем ИИ, гарантирующие, что технологии ИИ разрабатываются и используются заслуживающим доверия, прозрачным и соответствующим общественным потребностям, ценностям и ожиданиям.
81. Прозрачность ИИ
 Принцип, согласно которому системы ИИ должны быть прозрачными в своей работе, проектировании и процессах принятия решений, позволяя пользователям и заинтересованным сторонам понимать, как работают технологии ИИ, какие данные они используют, а также обоснование их результатов, для укрепления доверия и подотчетности.
82. Система подотчетности ИИ
 Набор руководств, процессов и механизмов, которые устанавливают четкие границы ответственности и подотчетности за разработку, развертывание и использование технологий ИИ, гарантируя, что заинтересованные стороны несут ответственность за свои действия и решения, связанные с системами ИИ.
83. Политика управления ИИ
 Формальные политики и руководства, в которых излагаются принципы, практика и требования ответственной разработки и внедрения технологий ИИ, учитываются этические, юридические, социальные и технические аспекты управления ИИ, а также обеспечивается основа для принятия решений.
84. Оценка рисков ИИ
 Процесс выявления и оценки потенциальных рисков и вреда, связанных с технологиями ИИ, включая предвзятость, ошибки, уязвимости в системе безопасности и непредвиденные последствия, а также разработка стратегий по снижению и управлению этими рисками для обеспечения безопасного и ответственного использования ИИ.
85. Этические соображения ИИ
 Этические принципы и ценности, которыми следует руководствоваться при разработке и использовании технологий ИИ, включая справедливость, подотчетность, прозрачность, конфиденциальность и ориентированный на человека дизайн, чтобы гарантировать, что системы ИИ соответствуют общественным ценностям и не наносят вреда отдельным лицам или сообществам.
86. ИИ, ориентированный на человека
 Подход к разработке технологий ИИ с акцентом на человеческие потребности, ценности и благополучие, гарантирующий, что системы ИИ соответствуют интересам человека, уважают права человека и продвигают человеческие ценности, чтобы избежать предубеждений или вреда, обусловленных технологиями.
87. Управление данными ИИ
 Управление данными, используемыми в системах ИИ, включая сбор, хранение, обработку и совместное использование данных, обеспечение точности, надежности, безопасности и использования данных, используемых в технологиях ИИ, в соответствии с применимыми законами, правилами и этическими соображениями.
88. Алгоритмическая прозрачность ИИ
 Наглядность и понятность алгоритмов, используемых в системах ИИ, позволяющая пользователям и заинтересованным сторонам понять, как принимаются решения и действия в системе ИИ, а также обеспечивающая подотчетность, справедливость и надежность.
89. Расширение прав и возможностей пользователей ИИ
 Практика предоставления пользователям возможности понимать, контролировать и влиять на поведение и результаты систем ИИ, с которыми они взаимодействуют, позволяя пользователям вносить значимый вклад, понимать ограничения и риски технологий ИИ и принимать обоснованные решения.
90. Обучение ИИ и грамотность
 Продвижение образования, осведомленности и грамотности в отношении технологий ИИ среди пользователей, политиков, отраслевых экспертов и широкой общественности, чтобы способствовать лучшему пониманию концепций, последствий и этических соображений ИИ, а также способствовать ответственному и осознанному использованию технологий ИИ.
91. Правила ИИ
 Разработка и обеспечение соблюдения нормативно-правовой базы, регулирующей разработку, развертывание и использование технологий ИИ, обеспечение использования систем ИИ в соответствии с применимыми законами, нормативными актами и этическими стандартами, а также снижение потенциальных рисков и вреда.
92. Обнаружение предвзятости ИИ
 Процесс выявления предубеждений в системах ИИ, включая предубеждения в данных, алгоритмах и процессах принятия решений, с использованием таких методов, как аудит, мониторинг и тестирование, для обнаружения и устранения предубеждений и обеспечения честных и беспристрастных технологий ИИ.
93. Сотрудничество с ИИ
 Практика поощрения сотрудничества и сотрудничества между заинтересованными сторонами, включая исследователей, политиков, отраслевых экспертов и гражданское общество, для коллективного решения проблем, рисков и возможностей технологий ИИ, а также для обеспечения ответственной и этичной разработки и использования ИИ.
94. Этика принятия решений ИИ
 Этические соображения, связанные с принятием решений системами ИИ, включая такие вопросы, как подотчетность, прозрачность, справедливость и человеческий контроль, чтобы гарантировать, что технологии ИИ принимают решения, которые соответствуют общественным ценностям, не наносят вреда отдельным лицам или сообществам, а также являются прозрачными и подотчетными.
95. Реализация управления ИИ
 Процесс внедрения политик и методов управления ИИ в организациях и учреждениях, включая создание механизмов для обеспечения соблюдения политик, мониторинга и оценки, чтобы гарантировать, что технологии ИИ разрабатываются, развертываются и используются в соответствии с установленными этическими и нормативными стандартами.
96. Конфиденциальность и безопасность ИИ
 Защита пользовательских данных и безопасность систем ИИ, включая такие меры, как шифрование данных, контроль доступа и тестирование уязвимостей, для защиты от несанкционированного доступа, утечки данных и неправомерного использования технологий ИИ, а также для обеспечения конфиденциальности пользователей и безопасности данных.
97. Объяснимость ИИ
 Способность систем ИИ предоставлять четкие объяснения и обоснования своих решений и действий, позволяя пользователям и заинтересованным сторонам понять причины, лежащие в основе результатов ИИ, и обеспечивая прозрачность, интерпретируемость и подотчетность технологий ИИ.
98. Справедливость ИИ
 Принцип, согласно которому технологии искусственного интеллекта должны разрабатываться и использоваться справедливым и беспристрастным образом, без дискриминации отдельных лиц или групп на основе таких факторов, как раса, пол, возраст или религия, для обеспечения социального равенства и предотвращения результатов дискриминации.
99. Валидация и проверка ИИ
 Процесс проверки и проверки точности, надежности и эффективности технологий ИИ, включая тестирование, проверку и проверку алгоритмов, моделей и данных, используемых в системах ИИ, для обеспечения их производительности и эффективности в реальных сценариях.
100. Соответствие ИИ и аудит
 Практика обеспечения соответствия технологий ИИ соответствующим законам, нормативным актам и этическим стандартам, а также проведение регулярных аудитов и оценок для проверки соответствия, выявления рисков и решения проблем, связанных с этичным и ответственным использованием ИИ.
101. Внедрение ИИ и оценка воздействия
 Оценка внедрения и воздействия технологий ИИ на общество, включая оценку социальных, экономических и культурных последствий технологий ИИ, а также выявление и снижение потенциальных рисков и вреда, связанных с их использованием.
102. Структура управления ИИ
 Комплексная структура, охватывающая все аспекты управления ИИ, в том числе этические соображения, соответствие законодательным и нормативным требованиям, прозрачность, подотчетность, справедливость и ориентированный на человека дизайн, обеспечивает целостный подход к ответственной и этичной разработке, развертыванию и использованию технологий ИИ.
103. Взаимодействие с заинтересованными сторонами ИИ
 Практика вовлечения и вовлечения соответствующих заинтересованных сторон, включая пользователей, политиков, отраслевых экспертов, организации гражданского общества и затронутые сообщества, в процессы принятия решений, связанных с технологиями ИИ, чтобы обеспечить учет различных точек зрения и способствовать взаимопониманию, доверию, и сотрудничество.
104. Управление рисками ИИ
 Упреждающая идентификация, оценка и снижение рисков, связанных с технологиями ИИ, включая разработку стратегий управления рисками, мониторинг и оценку рисков, а также реализацию мер по снижению рисков и управлению ими для обеспечения ответственного и безопасного использования технологий ИИ.
105. Соблюдение правил ИИ
 Соблюдение соответствующих законов, нормативных актов и этических стандартов при разработке, развертывании и использовании технологий искусственного интеллекта, включая получение необходимых разрешений, лицензий и сертификатов, а также соблюдение законодательных и нормативных требований на протяжении всего жизненного цикла системы искусственного интеллекта.
106. Правоприменение управления ИИ
 Обеспечение соблюдения политик и методов управления ИИ, включая мониторинг, аудит и санкции, для обеспечения соблюдения установленных этических и нормативных стандартов, а также привлечения заинтересованных сторон к ответственности за их действия и решения, связанные с технологиями ИИ.
107. Уменьшение предвзятости ИИ
 Процесс устранения погрешностей в системах ИИ, включая устранение погрешностей в данных, алгоритмах и процессах принятия решений с использованием таких методов, как повторная выборка, повторная балансировка и повторная калибровка, для обеспечения честных и непредвзятых технологий ИИ.
108. Стандарты ИИ
 Разработка и принятие общеотраслевых стандартов для технологий ИИ, включая стандарты конфиденциальности данных, алгоритмической прозрачности, справедливости, подотчетности и безопасности, для продвижения ответственной и этичной разработки, развертывания и использования технологий ИИ.
109. Обзор управления ИИ
 Периодический обзор и оценка политик и практик управления ИИ, включая оценку их эффективности, выявление пробелов, а также обновление или уточнение структуры управления по мере необходимости, чтобы обеспечить постоянное совершенствование и соответствие изменяющимся потребностям общества и технологическим достижениям.
110. Обучение и осведомленность об искусственном интеллекте
 Продвижение образования и осведомленности о технологиях ИИ, их потенциальных преимуществах, рисках и этических соображениях среди различных заинтересованных сторон, включая пользователей, политиков, специалистов отрасли и широкую общественность, для содействия принятию обоснованных решений и ответственному использованию технологий ИИ.
111. Сотрудничество и партнерство с ИИ
 Установление сотрудничества и партнерских отношений между различными заинтересованными сторонами, включая академические круги, промышленность, гражданское общество и политиков, для стимулирования коллективных усилий по решению проблем управления ИИ, обмена передовым опытом и разработки совместных решений для ответственной разработки, развертывания и использования ИИ.
112. Международное сотрудничество ИИ
 Содействие международному сотрудничеству и координации между различными странами и регионами для установления общих принципов, руководств и рамок для ответственного и этичного управления ИИ, а также для решения глобальных проблем, связанных с ИИ, включая такие вопросы, как конфиденциальность данных, безопасность, справедливость и подотчетность. .
113. Ответственность ИИ
 Принцип, согласно которому заинтересованные стороны, участвующие в разработке, развертывании и использовании технологий ИИ, должны нести ответственность за свои действия и решения, а также нести ответственность за этические, социальные и юридические последствия своих систем ИИ, включая устранение любого вреда или непреднамеренного последствия, которые могут возникнуть в результате их использования.
114. Этическое принятие решений ИИ
 Включение этических соображений в процессы принятия решений, связанных с технологиями ИИ, включая оценку этического воздействия, оценку этических рисков и основы этического принятия решений, чтобы гарантировать, что технологии ИИ разрабатываются, внедряются и используются в соответствии с этическими принципами и ценности.
115. Прозрачность ИИ
 Требование к системам ИИ быть прозрачными и открытыми в отношении их функций, процессов и механизмов принятия решений, чтобы пользователи и заинтересованные стороны могли понять, как работают технологии ИИ, а также способствовать доверию, подотчетности и ответственному использованию систем ИИ.
116. ИИ, ориентированный на человека
 Проектирование и разработка технологий искусственного интеллекта с акцентом на благополучие, безопасность и достоинство человека с учетом воздействия на человеческие жизни, ценности и права и обеспечение соответствия технологий искусственного интеллекта человеческим ценностям, потребностям и стремлениям, а также не ставить под угрозу благополучие или автономию человека.
117. Оценка социального воздействия ИИ
 Оценка социального воздействия технологий ИИ, в том числе оценка потенциальных последствий ИИ для занятости, экономики, общества, культуры и управления, а также разработка стратегий и мер по смягчению негативных последствий и максимизации социальных преимуществ технологий ИИ.
118. Предотвращение предвзятости ИИ
 Упреждающее предотвращение предубеждений в системах ИИ, в том числе устранение предубеждений при сборе данных, предварительной обработке и разработке алгоритмов, а также реализация мер по предотвращению предвзятости, встроенных в технологии ИИ, для обеспечения честных, беспристрастных и равноправных систем ИИ.
119. Кризисное управление ИИ
 Разработка планов и стратегий на случай непредвиденных обстоятельств для устранения потенциальных кризисов или чрезвычайных ситуаций, связанных с технологиями ИИ, включая такие проблемы, как утечка данных, системные сбои, предвзятость или неправильное использование технологий ИИ, а также реализация мер по снижению рисков и эффективному управлению кризисами.
120. Адаптивное управление ИИ
 Признание того, что технологии ИИ и их влияние на общество постоянно развиваются, а также потребность в адаптивных механизмах управления, которые могут гибко реагировать на изменяющиеся обстоятельства, возникающие риски и меняющиеся этические соображения, связанные с технологиями ИИ.
121. Защита конфиденциальности ИИ
 Защита прав на неприкосновенность частной жизни и персональных данных в контексте технологий ИИ, включая обеспечение соблюдения соответствующих законов о защите данных, внедрение надежных мер по обеспечению конфиденциальности данных и защиту от несанкционированного доступа или неправомерного использования персональных данных в системах ИИ.
122. Объяснимость и интерпретируемость ИИ
 Требование, чтобы системы ИИ были объяснимыми и интерпретируемыми, позволяя пользователям и заинтересованным сторонам понять, как технологии ИИ принимают решения, лежащие в их основе алгоритмы и обоснование их результатов, чтобы повысить доверие, подотчетность и прозрачность в системах ИИ.
123. Безопасность и устойчивость ИИ
 Реализация надежных мер безопасности в системах ИИ, включая защиту от угроз кибербезопасности, обеспечение целостности и конфиденциальности данных, а также повышение устойчивости к потенциальным атакам или системным сбоям для защиты от рисков и уязвимостей, связанных с технологиями ИИ.
124. Соответствие и стандарты ИИ
 Соблюдение соответствующих правил, стандартов и передового опыта в разработке, развертывании и использовании технологий искусственного интеллекта, включая этические нормы, технические стандарты и юридические требования, для обеспечения ответственной и соответствующей требованиям разработки и использования искусственного интеллекта.
125. Уменьшение предвзятости ИИ
 Активное устранение предубеждений в технологиях ИИ, включая регулярный мониторинг, оценку и устранение предубеждений в данных, алгоритмах и процессах принятия решений, чтобы гарантировать, что системы ИИ не будут увековечивать дискриминационные или предвзятые результаты, а также способствовать справедливости и равенству.
126. Структура управления ИИ
 Создание комплексных рамок управления, которые охватывают политики, рекомендации, правила и этические соображения, связанные с технологиями ИИ, обеспечивают структурированный подход к ответственной разработке, развертыванию и использованию ИИ и обеспечивают соблюдение соответствующих принципов и стандартов.
127. Оценка рисков ИИ
 Оценка потенциальных рисков, связанных с технологиями ИИ, включая этические, социальные, юридические, экономические и технологические риски, а также реализация мер по снижению выявленных рисков, включая стратегии снижения рисков, механизмы мониторинга и оценки, для минимизации потенциального вреда и обеспечения ответственного ИИ. использовать.
128. Взаимодействие с общественностью ИИ
 Вовлечение общественности в разработку, развертывание и использование технологий ИИ, включая запрос общественного мнения, учет общественных ценностей и точек зрения и укрепление общественного доверия, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, который соответствует потребностям общества. , ценности и стремления.
129. Мониторинг и оценка управления ИИ
 Постоянный мониторинг и оценка механизмов, политик и правил управления ИИ для обеспечения их эффективности, выявления областей для улучшения и адаптации к изменяющимся технологическим, социальным и этическим соображениям, связанным с технологиями ИИ.
130. Аудит соответствия ИИ
 Проведение регулярных проверок для оценки соблюдения соответствующих механизмов управления ИИ, политик и правил, включая оценку соблюдения этических принципов, технических стандартов и правовых требований, для обеспечения ответственного и надлежащего использования технологий ИИ.
131. Механизмы подотчетности ИИ
 Создание механизмов для привлечения заинтересованных сторон к ответственности за разработку, развертывание и использование технологий ИИ, включая рамки подотчетности, механизмы отчетности и меры по обеспечению соблюдения, для обеспечения ответственного и этичного применения ИИ и устранения любых нарушений или утечек.
132. Отчетность и прозрачность управления ИИ
 Регулярная отчетность и прозрачность механизмов, политик и практик управления ИИ, включая раскрытие информации о системах ИИ, их функциях и их влиянии на общество, для обеспечения подотчетности, доверия и принятия обоснованных решений заинтересованными сторонами.
133. Нормативная база ИИ
 Разработка нормативно-правовой базы, регулирующей разработку, развертывание и использование технологий ИИ, включая законы, политики и положения, касающиеся этических, правовых, социальных и технологических аспектов ИИ, для обеспечения ответственного и надлежащего использования технологий ИИ.
134. Сертификация соответствия ИИ
 Создание механизмов сертификации, которые оценивают соответствие технологий ИИ соответствующим механизмам управления, этическим принципам и техническим стандартам, предоставляя средства для проверки ответственных и этичных методов ИИ и способствуя прозрачности и доверию.
135. Правоприменение управления ИИ
 Обеспечение соблюдения механизмов, политик и правил управления ИИ с помощью соответствующих правовых, административных и нормативных мер, включая санкции, штрафы, взыскания и судебные иски против нарушителей, для обеспечения соблюдения ответственных и этичных практик ИИ и содействия подотчетности.
136. Обучение и обучение ИИ
 Предоставление образовательных и обучающих программ для заинтересованных сторон, участвующих в разработке, развертывании и использовании технологий ИИ, включая практиков ИИ, политиков, регулирующих органов и пользователей, для улучшения их понимания технологий ИИ, их этических последствий и передового опыта для ответственных Разработка и использование ИИ.
137. Взаимодействие с заинтересованными сторонами ИИ
 Активное вовлечение различных заинтересованных сторон, включая разработчиков ИИ, пользователей, политиков, регулирующих органов, организации гражданского общества и общественность, в процессы принятия решений, связанных с технологиями ИИ, для учета различных точек зрения, обеспечения инклюзивности и продвижения ответственного и этичного ИИ. практики.
138. Этические соображения ИИ
 Рассмотрение этических последствий разработки, развертывания и использования технологий ИИ, включая вопросы, связанные со справедливостью, подотчетностью, прозрачностью, предвзятостью, конфиденциальностью, автономией и общественным воздействием, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, чтобы соответствует этическим принципам и ценностям.
139. Ответственные инновации ИИ
 Содействие ответственным инновациям в технологиях ИИ, включая интеграцию этических соображений, оценку рисков, взаимодействие с заинтересованными сторонами и соблюдение соответствующих механизмов управления, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, чтобы приносить пользу человечеству, избегать вреда и поддерживать общественные ценности.
140. Защита политики ИИ
 Пропаганда политик, нормативных актов и стандартов, способствующих ответственной и этичной разработке, развертыванию и использованию ИИ, включая участие в обсуждениях политики, внесение вклада в нормативные инициативы и содействие внедрению механизмов управления, обеспечивающих ответственную и подотчетную практику ИИ.
141. Комитеты по этике ИИ
 Создание независимых комитетов по этике или наблюдательных советов для обеспечения руководства, надзора и оценки технологий ИИ и их этических последствий, включая рассмотрение планов развития ИИ, проведение этических оценок и предоставление рекомендаций по ответственным и этичным практикам ИИ.
142. Прозрачность ИИ
 Требование прозрачности технологий ИИ, включая предоставление четкой документации, пояснений и раскрытие функций, вводимые данные, процессы принятия решений и потенциальные предубеждения систем ИИ, чтобы обеспечить прозрачность, подотчетность и доверие к технологиям ИИ.
143. Человекоцентричный подход ИИ
 Принятие ориентированного на человека подхода к разработке, развертыванию и использованию технологий ИИ, обеспечивающего соответствие преимуществ технологий ИИ человеческим ценностям, потребностям и стремлениям, а также разработку и использование технологий ИИ таким образом, чтобы уважает человеческое достоинство, способствует благополучию и защищает права человека.
144. Оценка социального воздействия ИИ
 Оценка потенциального социального воздействия технологий ИИ, включая их влияние на занятость, экономику, общество и культуру, а также принятие мер по смягчению негативных последствий и максимизации положительных воздействий, чтобы гарантировать, что технологии ИИ способствуют общественному благосостоянию и содействуют инклюзивному и устойчивому развитию. .
145. Глобальное сотрудничество ИИ
 Содействие международному сотрудничеству и сотрудничеству между заинтересованными сторонами, включая правительства, организации и экспертов, для решения глобальных проблем и последствий технологий ИИ, включая этические, правовые, социальные и технологические аспекты, а также для разработки общих стандартов, руководств и лучших практики ответственной и этичной разработки и использования ИИ.
146. Передача технологий ИИ
 Ответственная передача технологий ИИ, включая знания, навыки и возможности, для обеспечения того, чтобы технологии ИИ использовались в соответствии с этическими принципами, механизмами управления и нормативными требованиями при передаче между различными организациями, странами или контекстами.
147. Государственная политика ИИ
 Разработка государственной политики, касающейся этических, правовых, социальных и технологических последствий технологий ИИ, включая политику, касающуюся конфиденциальности данных, устранения предвзятости, прозрачности, подотчетности и управления, для обеспечения ответственной и подотчетной разработки, развертывания и использования ИИ. .
148. Надежность ИИ
 Установление доверия к технологиям ИИ, в том числе путем реализации таких мер, как сторонние аудиты, сертификация и процессы проверки, для обеспечения того, чтобы технологии ИИ разрабатывались и использовались надежным образом, с соблюдением этических принципов, передовой практики, и нормативные требования.
149. Расширение прав и возможностей пользователей ИИ
 Предоставление пользователям ИИ необходимых знаний, навыков и инструментов для понимания, оценки и взаимодействия с технологиями ИИ, включая предоставление удобных интерфейсов, четкое объяснение функций ИИ и доступ к информации об использовании данных и процессах принятия решений. , чтобы пользователи могли принимать обоснованные решения и контролировать свое взаимодействие с технологиями ИИ.
150. Инклюзивность ИИ
 Содействие инклюзивности в разработке, развертывании и использовании технологий ИИ, включая устранение предубеждений, дискриминации и неравенства в системах ИИ, а также обеспечение того, чтобы технологии ИИ были доступны и полезны для всех людей, независимо от их пола, расы, возраста, религия, инвалидность или любые другие характеристики, чтобы обеспечить справедливые и справедливые результаты.
151. Ответственность ИИ
 Создание механизмов для привлечения разработчиков, пользователей и других заинтересованных сторон к ответственности за этическую разработку, развертывание и использование технологий ИИ, включая механизмы отчетности, расследования и возмещения любого вреда, причиненного технологиями ИИ, для обеспечения соблюдения ответственных методов. поддерживается, а ответственность сохраняется.
152. Механизмы управления ИИ
 Разработка и внедрение механизмов управления, включая политики, правила, стандарты и рекомендации, для обеспечения ответственной и этичной разработки, развертывания и использования ИИ, а также для устранения потенциальных рисков и проблем, связанных с технологиями ИИ, таких как предвзятость, конфиденциальность, безопасность. и социальные последствия.
153. Сотрудничество с ИИ
 Содействие сотрудничеству между заинтересованными сторонами, включая исследователей, политиков, промышленность, гражданское общество и общественность, для поощрения междисциплинарных подходов, обмена знаниями и совместных усилий по решению этических, правовых, социальных и технологических проблем, связанных с технологиями ИИ, а также для разрабатывать решения, которые приносят пользу человечеству в целом.
154. ИИ Права человека
 Защита и поощрение прав человека в контексте технологий ИИ, включая неприкосновенность частной жизни, свободу выражения мнений, недискриминацию и право на доступ к информации, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, который поддерживает права человека и уважает достоинства и автономии личности.
155. Ответ ИИ на дезинформацию
 Разработка технологий и стратегий ИИ для борьбы с распространением дезинформации и дезинформации, включая фальшивые новости, дипфейки и злонамеренное использование ИИ, чтобы гарантировать, что технологии ИИ разрабатываются и используются ответственно и не способствуют вредному воздействию на общество, демократию. и публичный дискурс.
156. Готовность ИИ к стихийным бедствиям
 Интеграция технологий искусственного интеллекта в усилия по обеспечению готовности к стихийным бедствиям и реагированию на них, включая системы раннего предупреждения, оценку рисков, управление стихийными бедствиями и восстановление после стихийных бедствий, для улучшения процесса принятия решений, сокращения человеческих потерь и смягчения последствий стихийных бедствий и других чрезвычайных ситуаций.
157. ИИ для общественного блага
 Содействие использованию технологий ИИ на благо общества, включая решение глобальных проблем, таких как бедность, голод, неравенство в отношении здоровья, образование, изменение климата и устойчивость, для использования потенциала ИИ для положительного воздействия на общество и обеспечения того, чтобы технологии ИИ вносили свой вклад на благо всех людей и сообществ.
158. Этика данных ИИ
 Рассмотрение этических последствий, связанных с данными при разработке и использовании технологий ИИ, включая конфиденциальность данных, согласие, право собственности, предвзятость и качество, чтобы гарантировать, что технологии ИИ разрабатываются и используются ответственным и этичным образом с уважением к людям. ‘ права на данные и конфиденциальность.
159. ИИ и кибербезопасность
 Интеграция технологий ИИ в усилия по кибербезопасности, включая обнаружение угроз, их предотвращение и реагирование, для усиления мер кибербезопасности и защиты от киберугроз, при этом обеспечивая ответственную разработку и использование технологий ИИ во избежание потенциальных рисков и вреда.
160. ИИ для принятия этических решений
 Разработка технологий и стратегий ИИ, поддерживающих этичное принятие решений, включая включение этических рамок, принципов и руководств в алгоритмы ИИ, чтобы гарантировать, что технологии ИИ предназначены для принятия этических решений, соответствующих человеческим ценностям и этическим стандартам, и во избежание непреднамеренные последствия или предубеждения при принятии решений ИИ.
161. Прозрачность ИИ
 Содействие прозрачности технологий ИИ, в том числе предоставление четких объяснений того, как работают системы ИИ, раскрытие информации об использовании ИИ в процессах принятия решений, а также предоставление доступа к алгоритмам и данным, используемым в системах ИИ, для аудита и проверки, чтобы гарантировать, что технологии ИИ прозрачны и подотчетны пользователям и заинтересованным сторонам.
162. Образование и осведомленность об ИИ
 Продвижение образования и осведомленности о технологиях ИИ, включая предоставление обучения, ресурсов и информации о технологиях ИИ пользователям, политикам и широкой общественности, чтобы способствовать пониманию, грамотности и принятию обоснованных решений о технологиях ИИ, их преимуществах и рисках. , и последствия.
163. Оценка этического воздействия ИИ
 Проведение оценок этического воздействия технологий ИИ, включая оценку потенциальных этических, социальных и социальных последствий технологий ИИ на протяжении всего их жизненного цикла, от разработки до развертывания и использования, для выявления и решения этических проблем и обеспечения ответственной и этичной разработки ИИ.
164. Надежность и безопасность ИИ
 Акцент на надежности и безопасности технологий ИИ, включая обеспечение того, чтобы системы ИИ были спроектированы, протестированы и проверены на надежность, безопасность и устойчивость к потенциальным сбоям, уязвимостям или атакам злоумышленников, чтобы минимизировать риски и обеспечить безопасный и надежный ИИ. технологии.
165. ИИ-человек в цикле
 Включение человеческого надзора и контроля в технологии ИИ, в том числе участие человека в процессах принятия решений, позволяющее вмешательство человека и интерпретацию выходных данных ИИ, а также обеспечение того, чтобы люди оставались ответственными и подотчетными за действия и решения, принимаемые с помощью технологий ИИ, чтобы избегайте чрезмерной зависимости от ИИ и сохраняйте свободу действий человека.
166. Советы по этике ИИ
 Создание независимых и междисциплинарных советов по этике технологий ИИ, состоящих из экспертов из различных областей, включая этику, право, социальные науки, технологии и представителей пользователей, для обеспечения критической оценки, руководства и надзора за разработкой, развертыванием и внедрением ИИ. использовать, чтобы обеспечить ответственную и этичную практику.
167. Этическое лидерство ИИ
 Поощрение этического лидерства в разработке и использовании технологий ИИ, включая формирование культуры ответственных инноваций, этического принятия решений и подотчетности на всех уровнях разработки и использования ИИ, а также поощрение лидеров отдавать приоритет этическим соображениям и общественному влиянию, а не краткосрочным. – временные выгоды или конкурентные преимущества.
168. Международное сотрудничество ИИ
 Содействие международному сотрудничеству и сотрудничеству в решении этических, правовых, социальных и технологических проблем, связанных с технологиями ИИ, включая обмен знаниями, передовым опытом и опытом, а также разработку глобальных стандартов и руководств по ответственной разработке, развертыванию и использованию ИИ, чтобы обеспечить скоординированный и совместный подход к ответственным и этичным технологиям искусственного интеллекта на глобальном уровне.
169. Этическое разоблачение ИИ
 Создание механизмов этического информирования в контексте технологий ИИ, включая предоставление каналов для сообщения об этических проблемах, нарушениях или предвзятости в системах ИИ, а также защиту осведомителей от возмездия, чтобы обеспечить рассмотрение и решение этических проблем, связанных с технологиями ИИ. прозрачным и подотчетным образом.
170. Непрерывный мониторинг и улучшение ИИ
 Внедрение процессов непрерывного мониторинга и улучшения технологий ИИ, включая регулярную оценку, аудит и циклы обратной связи, для выявления и устранения любых этических проблем, предубеждений или непредвиденных последствий, которые могут возникнуть во время разработки, развертывания и использования технологий ИИ. для обеспечения постоянного совершенствования и ответственного развития ИИ.

adminit23
Author: adminit23

Вернуться наверх