Translator
Translator
Translator
Translator
1. Искусственный интеллект (ИИ) |
Область компьютерных наук, которая фокусируется на создании интеллектуальных систем, способных выполнять задачи, которые обычно требуют человеческого интеллекта, такие как распознавание речи, распознавание изображений и принятие решений. |
2. Машинное обучение (МО) |
Подмножество ИИ, которое включает использование алгоритмов и статистических моделей, позволяющих компьютерам учиться и делать прогнозы или решения на основе данных без явного программирования. |
3. Глубокое обучение |
Тип машинного обучения, использующий искусственные нейронные сети с несколькими уровнями для обработки и анализа данных, часто используемый в таких задачах, как распознавание изображений и речи. |
4. Нейронная сеть |
Тип математической модели, вдохновленной структурой и функционированием человеческого мозга, используемый в глубоком обучении, чтобы позволить машинам учиться и принимать решения. |
5. Обработка естественного языка (NLP) |
Подобласть ИИ, которая фокусируется на том, чтобы позволить машинам понимать, интерпретировать и реагировать на человеческий язык осмысленным и актуальным образом. |
6. Компьютерное зрение |
Область ИИ, которая включает использование компьютеров для интерпретации и понимания визуальной информации из мира, такой как изображения и видео. |
7. Обучение с подкреплением |
Тип машинного обучения, при котором агент учится принимать решения и выполнять действия в среде, чтобы максимизировать сигнал вознаграждения, часто используемый в автономных системах и робототехнике. |
8. Алгоритм |
Набор инструкций или правил, которым следует компьютер для решения конкретной проблемы или выполнения конкретной задачи. |
9. Наука о данных |
Междисциплинарная область, включающая сбор, анализ и интерпретацию данных для получения информации и поддержки процессов принятия решений, часто используемая в сочетании с ИИ для обучения моделей машинного обучения. |
10. Этика в ИИ |
Рассмотрение этических последствий и социального воздействия ИИ, включая такие темы, как предвзятость, справедливость, прозрачность, подотчетность и конфиденциальность, при разработке, развертывании и использовании систем ИИ. |
11. Общий искусственный интеллект (AGI) |
Гипотетическая концепция ИИ, который обладает способностью понимать, учиться и применять интеллект для решения широкого круга задач, подобно человеческому интеллекту. |
12. Интернет вещей (IoT) |
Сеть взаимосвязанных физических устройств, которые взаимодействуют друг с другом и обмениваются данными, часто используемая в сочетании с ИИ для обеспечения интеллектуальных и автономных систем. |
13. Большие данные |
Чрезвычайно большие и сложные наборы данных, которыми трудно управлять, обрабатывать и анализировать с использованием традиционных методов, часто используемых в машинном обучении для обучения моделей и прогнозирования. |
14. Контролируемое обучение |
Тип машинного обучения, при котором модель обучается с использованием помеченных данных, где предоставляется правильный вывод, чтобы делать прогнозы или принимать решения. |
15. Неконтролируемое обучение |
Тип машинного обучения, при котором модель обучается с использованием неразмеченных данных, где правильный вывод не предоставляется, для выявления закономерностей, взаимосвязей или аномалий в данных. |
16. Передача обучения |
Метод машинного обучения, при котором модель, обученная одной задаче, используется для повышения производительности другой связанной задачи, часто используется для использования существующих знаний и уменьшения потребности в обширных обучающих данных. |
17. Предвзятость |
В контексте ИИ предвзятость означает наличие систематических ошибок или несправедливости в прогнозах или решениях, принимаемых системами ИИ, часто в результате необъективных данных, необъективных алгоритмов или необъективного обучения модели. |
18. Объяснимый ИИ (XAI) |
Область ИИ, которая фокусируется на разработке систем ИИ, которые являются прозрачными и могут предоставить понятные объяснения своих прогнозов или решений, чтобы повысить доверие, подотчетность и интерпретируемость. |
19. Человек в петле |
Подход в ИИ, при котором человеческий вклад и обратная связь интегрируются в процесс обучения модели или принятия решений, часто используемый для улучшения производительности модели, уменьшения предвзятости и обеспечения этических соображений. |
20. Развертывание модели |
Процесс интеграции обученной модели машинного обучения в производственную среду, где ее можно использовать для прогнозирования или принятия решений в реальном времени. |
21. Оценка модели |
Процесс оценки производительности и точности обученной модели машинного обучения с использованием различных показателей и методов для определения ее эффективности в решении поставленной задачи. |
22. Интерпретируемость модели |
Способность понимать и интерпретировать решения или прогнозы, сделанные моделью машинного обучения, что часто важно для обеспечения прозрачности, доверия и подотчетности в системах ИИ. |
23. Гиперпараметры |
Параметры модели машинного обучения, которые задаются перед процессом обучения и влияют на производительность модели, например скорость обучения, размер пакета и количество слоев. |
24. Переобучение |
Явление в машинном обучении, когда модель хорошо работает с обучающими данными, но не может обобщить новые, невидимые данные, часто вызванное слишком сложной моделью или недостатком обучающих данных. |
25. Обучение ансамблю |
Метод машинного обучения, который включает объединение прогнозов нескольких моделей для повышения общей производительности и точности прогнозов. |
26. Разработка функций |
Процесс выбора, преобразования или создания соответствующих функций или переменных из необработанных данных для повышения производительности модели машинного обучения. |
27. Предварительная обработка |
Этап машинного обучения, который включает очистку, нормализацию или преобразование необработанных данных в формат, который можно использовать для обучения модели, часто включая такие задачи, как очистка данных, масштабирование функций и кодирование данных. |
28. Предвзятость развертывания |
Смещение, которое может возникнуть в реальном применении систем ИИ из-за различий между данными обучения и средой развертывания, часто требует постоянного мониторинга и усилий по смягчению последствий. |
29. Прочность |
Способность модели машинного обучения хорошо работать и делать точные прогнозы даже в условиях шума, неопределенности или атак со стороны противника. |
30. ИИ, сохраняющий конфиденциальность |
Область искусственного интеллекта, в которой основное внимание уделяется разработке методов и методов для защиты конфиденциальности и конфиденциальности данных, используемых в машинном обучении, гарантирующих, что конфиденциальная информация не будет раскрыта или скомпрометирована. |
31. Объяснимый ИИ (XAI) |
Область ИИ, целью которой является разработка моделей и систем, которые могут давать понятные и интерпретируемые объяснения своих прогнозов или решений, повышая доверие, подотчетность и прозрачность. |
32. Обучение с подкреплением |
Тип машинного обучения, при котором агент учится принимать решения или совершать действия в среде, чтобы максимизировать кумулятивный сигнал вознаграждения, часто используемый в таких областях, как робототехника, игры и автономные системы. |
33. Передача обучения |
Метод машинного обучения, при котором предварительно обученная модель, обычно обученная на большом наборе данных, используется в качестве отправной точки для обучения новой модели на меньшем связанном наборе данных, что позволяет проводить более быстрое и эффективное обучение модели. |
34. Неконтролируемое обучение |
Тип машинного обучения, при котором модель учится на немаркированных данных без какого-либо явного контроля или помеченных примеров, часто используется для таких задач, как кластеризация, обнаружение аномалий и уменьшение размерности. |
35. Обработка естественного языка (NLP) |
Область ИИ, которая позволяет компьютерам понимать, интерпретировать и генерировать человеческий язык, часто используемый в таких приложениях, как анализ текста, анализ настроений, машинный перевод и чат-боты. |
36. Компьютерное зрение |
Область ИИ, которая включает в себя обучение компьютеров интерпретировать визуальную информацию из мира, такую как изображения или видео, и понимать визуальные данные, используемые в таких приложениях, как распознавание изображений, обнаружение объектов и распознавание лиц. |
37. Глубокое обучение |
Подобласть машинного обучения, которая включает обучение искусственных нейронных сетей с несколькими уровнями для автоматического изучения иерархических представлений данных, часто используемых в таких областях, как распознавание изображений и речи, обработка естественного языка и системы рекомендаций. |
38. Пограничные вычисления |
Концепция обработки данных и выполнения вычислений в источнике генерации данных или рядом с ним вместо того, чтобы полагаться исключительно на облачную обработку, часто используемую в системах ИИ, требующих обработки в реальном времени или с малой задержкой. |
39. Предвзятость в ИИ |
Наличие систематических ошибок или дискриминации в системах ИИ, часто возникающих из-за предвзятых данных обучения, предвзятых алгоритмов или предвзятого дизайна, приводящих к несправедливым или дискриминационным результатам и требующих тщательных мер по смягчению последствий для обеспечения справедливости, подотчетности и этичного использования. |
40. Объяснимость |
Способность понимать и объяснять решения или прогнозы, сделанные системой ИИ, что часто необходимо для укрепления доверия, устранения предубеждений и обеспечения прозрачности приложений ИИ. |
41. Этика ИИ |
Раздел этики, который фокусируется на ответственной разработке, развертывании и использовании систем ИИ, включая такие соображения, как справедливость, прозрачность, подотчетность, конфиденциальность, предвзятость и влияние на общество. |
42. Предвзятость данных |
Смещение, которое может быть введено в системы ИИ из-за смещенных данных, используемых для обучения, что приводит к смещенным прогнозам или решениям и требует тщательного сбора данных, предварительной обработки и методов устранения смещения. |
43. Федеративное обучение |
Распределенный подход к машинному обучению, при котором несколько устройств или серверов взаимодействуют для коллективного обучения общей модели, сохраняя децентрализованность данных и сохраняя конфиденциальность, часто используется в сценариях, когда данные не могут быть централизованы из-за проблем с конфиденциальностью или нормативными требованиями. |
44. AutoML (автоматическое машинное обучение) |
Использование автоматизированных инструментов, методов и алгоритмов для автоматического поиска, выбора и оптимизации моделей машинного обучения, гиперпараметров и разработки функций, что снижает потребность в ручном вмешательстве и опыте в процессе разработки модели. |
45. Управление ИИ |
Структура политик, правил и руководств, регулирующих разработку, развертывание и использование систем ИИ, направленных на обеспечение этичного, прозрачного и ответственного использования ИИ в различных областях, включая промышленность, здравоохранение, финансы и правительство. |
46. Человек в цикле (HITL) |
Подход к ИИ, при котором люди интегрируются в цикл принятия решений системы ИИ, обеспечивая вход, обратную связь или надзор, часто используемый в таких приложениях, как принятие решений с помощью ИИ, сотрудничество человека и ИИ и рекомендации на основе ИИ. системы. |
47. Состязательное машинное обучение |
Изучение уязвимостей и атак на модели машинного обучения, когда вредоносные входные данные или возмущения преднамеренно создаются для обмана или манипулирования прогнозами модели, что приводит к потенциальным рискам безопасности и требует надежных средств защиты и контрмер. |
48. ИИ для общественного блага |
Применение методов и технологий искусственного интеллекта для решения социальных проблем и содействия положительному социальному воздействию, такому как здравоохранение, образование, борьба с бедностью, охрана окружающей среды и реагирование на стихийные бедствия. |
49. Уменьшение предвзятости ИИ |
Методы и стратегии, используемые для выявления, смягчения и уменьшения предвзятости в системах ИИ, включая повторную выборку, повторное взвешивание, состязательное обучение и алгоритмы машинного обучения с учетом справедливости, направленные на обеспечение честных и непредвзятых результатов в приложениях ИИ. |
50. Прозрачность ИИ |
Уровень открытости, ясности и понятности операций, решений и прогнозов системы ИИ, часто достигаемый с помощью таких методов, как объяснимый ИИ (XAI), интерпретируемость модели и визуализация, что позволяет заинтересованным сторонам понять систему ИИ и доверять ей. |
51. Надежность ИИ |
Способность системы ИИ поддерживать свою производительность и точность в различных условиях, включая зашумленные или враждебные входные данные, различные среды и неожиданные сценарии, часто достигаемая с помощью таких методов, как надежная оптимизация, ансамблевые методы и регуляризация моделей. |
52. Объяснимость ИИ |
Способность системы ИИ давать четкие и понятные объяснения своим прогнозам, решениям или действиям, позволяя пользователям понять аргументацию и логику выходных данных системы, а также способствуя доверию, подотчетности и интерпретируемости. |
53. Интерпретируемость ИИ |
Степень, в которой внутренние процессы, функции или представления системы ИИ могут быть поняты и объяснены в понятных человеку терминах, часто достигается с помощью таких методов, как анализ важности функций, визуализация и извлечение правил. |
54. Осведомленность о предвзятости ИИ |
Распознавание и понимание потенциальных предубеждений, которые могут возникнуть в системах ИИ из-за необъективных данных, алгоритмов или дизайнерских решений, а также упреждающие шаги, предпринятые для выявления, измерения и смягчения таких предубеждений для обеспечения справедливости, справедливости и инклюзивности. |
55. Справедливость ИИ |
Принцип обеспечения справедливого и непредвзятого отношения к различным группам или отдельным лицам системой ИИ, независимо от их демографических характеристик, и недопущения дискриминации, предубеждений или несправедливости в результатах системы, часто достигаемый с помощью таких методов, как машинное обучение с учетом справедливости, справедливость. метрики и устранение предвзятости. |
56. Ответственность ИИ |
Принцип возложения на системы ИИ и их разработчиков, пользователей или операторов ответственности за последствия своих действий, решений или прогнозов, а также обеспечение их прозрачности, объяснимости и надлежащего контроля, аудита и регулирования. |
57. Конфиденциальность ИИ |
Защита личной информации и конфиденциальности данных отдельных лиц в контексте систем искусственного интеллекта, включая сбор, хранение, совместное использование и использование данных, а также соблюдение соответствующих законов, правил и этических норм для обеспечения конфиденциальности и безопасности пользовательских данных. |
58. Безопасность ИИ |
Защита систем ИИ от несанкционированного доступа, взлома или злонамеренных атак, которые могут поставить под угрозу их целостность, конфиденциальность или доступность, часто достигается с помощью таких методов, как шифрование, аутентификация и надежное развертывание. |
59. Структура управления ИИ |
Комплексный набор политик, принципов и руководств, которые определяют ответственную и этичную разработку, развертывание и использование систем ИИ с учетом правовых, этических, социальных и технических соображений и обеспечивают соответствие систем ИИ человеческим ценностям и социальным нормам. цели. |
60. Принятие ИИ |
Процесс интеграции технологий и приложений ИИ в различные области и отрасли, включая планирование, разработку, внедрение и оценку систем ИИ, а также обеспечение того, чтобы они приносили пользу, приносили пользу и оказывали положительное влияние на общество, экономику и отдельных людей. |
61. Правила ИИ |
Разработка и обеспечение соблюдения законов, нормативных актов и политик, регулирующих разработку, развертывание и использование систем ИИ, с целью обеспечения ответственных, этичных и подотчетных методов ИИ, защиты прав пользователей и устранения потенциальных рисков и проблем, связанных с технологии ИИ. |
62. Комитет по этике ИИ |
Группа экспертов или заинтересованных сторон, ответственных за предоставление руководства, надзора и рекомендаций по этическим последствиям разработки и использования ИИ, рассмотрение и оценку проектов ИИ с точки зрения этических соображений, а также обеспечение того, чтобы технологии ИИ разрабатывались и использовались в соответствии с этическими нормами. принципы и ценности. |
63. Прозрачность ИИ |
Принцип обеспечения прозрачности и понятности систем ИИ и их процессов для пользователей, заинтересованных сторон и широкой общественности, включая предоставление четких объяснений функциональности системы, процессов принятия решений и использования данных для укрепления доверия, подотчетности и понимания пользователей. |
64. Сотрудничество с ИИ |
Практика объединения междисциплинарных групп, включая исследователей, разработчиков, политиков и других заинтересованных сторон, для совместной работы над проектами ИИ, обмена знаниями, опытом и точками зрения, а также для обеспечения целостного подхода к разработке и внедрению ИИ. |
65. Обучение ИИ |
Процесс предоставления образования и обучения концепциям, технологиям, этике и передовым методам ИИ для различных заинтересованных сторон, включая разработчиков, пользователей, политиков и широкую общественность, для повышения осведомленности, продвижения ответственных методов ИИ и содействия хорошо информированному ИИ. сообщество. |
66. Оценка воздействия ИИ |
Оценка потенциального социального, экономического и экологического воздействия систем ИИ, включая их преимущества и риски, для понимания и смягчения любых непредвиденных последствий, а также для обеспечения разработки и использования технологий ИИ в соответствии с общественными ценностями и целями. |
67. Орган управления ИИ |
Регулирующий или надзорный орган, ответственный за мониторинг и регулирование разработки и использования ИИ, установление стандартов, руководств и политик для технологий ИИ, а также обеспечение того, чтобы системы ИИ разрабатывались и использовались в соответствии с этическими, юридическими и общественными требованиями. |
68. Аудит ИИ |
Процесс проведения регулярных проверок систем ИИ для оценки их соответствия этическим, правовым и нормативным стандартам, включая использование данных, алгоритмическую справедливость, прозрачность и подотчетность, а также принятие корректирующих мер, когда это необходимо для обеспечения ответственной практики ИИ. |
69. Ответственные инновации ИИ |
Подход к разработке технологий ИИ с учетом потенциального воздействия на общество, экономику и отдельных лиц, а также обеспечение того, чтобы системы ИИ разрабатывались, развертывались и использовались ответственно, этично и с учетом их более широких последствий. |
70. Управление рисками ИИ |
Практика выявления, оценки и снижения рисков, связанных с технологиями ИИ, включая предвзятость, уязвимости в системе безопасности, потенциальный вред для пользователей или общества, а также принятие упреждающих мер для минимизации рисков и обеспечения ответственной разработки и использования систем ИИ. |
71. Ответственность ИИ |
Принцип, согласно которому разработчики и пользователи ИИ должны нести ответственность за действия и последствия систем ИИ, в том числе устранять любые предубеждения, ошибки или вредные последствия, связанные с технологиями ИИ, а также быть прозрачными и подотчетными за свои решения и действия, связанные с разработкой и внедрением ИИ. развертывание. |
72. Справедливость ИИ |
Концепция обеспечения того, чтобы системы ИИ не дискриминировали какую-либо конкретную группу или человека, а также чтобы они были разработаны и обучены так, чтобы быть справедливыми, непредвзятыми и беспристрастными в своих процессах принятия решений, чтобы предотвратить дискриминацию или увековечивание социальных предубеждений. |
73. Объяснимость ИИ |
Способность систем ИИ давать понятные объяснения своих решений и действий, позволяя пользователям и заинтересованным сторонам понять, как и почему определенные решения были приняты системой ИИ, и обеспечивая прозрачность, доверие и подотчетность. |
74. Конфиденциальность ИИ |
Защита личных данных и прав на неприкосновенность частной жизни в контексте разработки и использования ИИ, в том числе обеспечение того, чтобы системы ИИ разрабатывались и развертывались с соблюдением законов, нормативных актов и этических соображений, а также чтобы пользовательские данные обрабатывались ответственно и безопасно. |
75. Уменьшение предвзятости ИИ |
Процесс выявления, смягчения и устранения предубеждений в системах ИИ, включая предубеждения в данных, алгоритмах и процессах принятия решений, для обеспечения того, чтобы технологии ИИ были справедливыми, беспристрастными и не увековечивали дискриминацию или неравенство. |
76. Надежность ИИ |
Устойчивость систем ИИ к атакам со стороны противника, ошибкам и неожиданным вводным данным, гарантирующая, что технологии ИИ надежны, точны и способны работать в реальных сценариях без ущерба для их производительности или безопасности. |
77. Структура управления ИИ |
Комплексный набор политик, руководств и передовых практик, обеспечивающих основу для ответственной разработки, развертывания и использования технологий ИИ с учетом этических, правовых, социальных и технических аспектов управления ИИ. |
78. Взаимодействие с заинтересованными сторонами ИИ |
Практика вовлечения различных заинтересованных сторон, включая пользователей, политиков, отраслевых экспертов и гражданское общество, в процессы принятия решений, связанных с разработкой и внедрением ИИ, для обеспечения учета различных точек зрения и повышения прозрачности, инклюзивности и подотчетности. |
79. Соответствие ИИ |
Соблюдение правовых, нормативных и этических требований при разработке и использовании технологий ИИ, в том числе обеспечение того, чтобы системы ИИ соответствовали соответствующим законам, нормативным актам и руководствам, а также чтобы они использовались в соответствии с этическими принципами и социальными нормами. ценности. |
80. Надежность ИИ |
Общая надежность, подотчетность и этическая обоснованность систем ИИ, гарантирующие, что технологии ИИ разрабатываются и используются заслуживающим доверия, прозрачным и соответствующим общественным потребностям, ценностям и ожиданиям. |
81. Прозрачность ИИ |
Принцип, согласно которому системы ИИ должны быть прозрачными в своей работе, проектировании и процессах принятия решений, позволяя пользователям и заинтересованным сторонам понимать, как работают технологии ИИ, какие данные они используют, а также обоснование их результатов, для укрепления доверия и подотчетности. |
82. Система подотчетности ИИ |
Набор руководств, процессов и механизмов, которые устанавливают четкие границы ответственности и подотчетности за разработку, развертывание и использование технологий ИИ, гарантируя, что заинтересованные стороны несут ответственность за свои действия и решения, связанные с системами ИИ. |
83. Политика управления ИИ |
Формальные политики и руководства, в которых излагаются принципы, практика и требования ответственной разработки и внедрения технологий ИИ, учитываются этические, юридические, социальные и технические аспекты управления ИИ, а также обеспечивается основа для принятия решений. |
84. Оценка рисков ИИ |
Процесс выявления и оценки потенциальных рисков и вреда, связанных с технологиями ИИ, включая предвзятость, ошибки, уязвимости в системе безопасности и непредвиденные последствия, а также разработка стратегий по снижению и управлению этими рисками для обеспечения безопасного и ответственного использования ИИ. |
85. Этические соображения ИИ |
Этические принципы и ценности, которыми следует руководствоваться при разработке и использовании технологий ИИ, включая справедливость, подотчетность, прозрачность, конфиденциальность и ориентированный на человека дизайн, чтобы гарантировать, что системы ИИ соответствуют общественным ценностям и не наносят вреда отдельным лицам или сообществам. |
86. ИИ, ориентированный на человека |
Подход к разработке технологий ИИ с акцентом на человеческие потребности, ценности и благополучие, гарантирующий, что системы ИИ соответствуют интересам человека, уважают права человека и продвигают человеческие ценности, чтобы избежать предубеждений или вреда, обусловленных технологиями. |
87. Управление данными ИИ |
Управление данными, используемыми в системах ИИ, включая сбор, хранение, обработку и совместное использование данных, обеспечение точности, надежности, безопасности и использования данных, используемых в технологиях ИИ, в соответствии с применимыми законами, правилами и этическими соображениями. |
88. Алгоритмическая прозрачность ИИ |
Наглядность и понятность алгоритмов, используемых в системах ИИ, позволяющая пользователям и заинтересованным сторонам понять, как принимаются решения и действия в системе ИИ, а также обеспечивающая подотчетность, справедливость и надежность. |
89. Расширение прав и возможностей пользователей ИИ |
Практика предоставления пользователям возможности понимать, контролировать и влиять на поведение и результаты систем ИИ, с которыми они взаимодействуют, позволяя пользователям вносить значимый вклад, понимать ограничения и риски технологий ИИ и принимать обоснованные решения. |
90. Обучение ИИ и грамотность |
Продвижение образования, осведомленности и грамотности в отношении технологий ИИ среди пользователей, политиков, отраслевых экспертов и широкой общественности, чтобы способствовать лучшему пониманию концепций, последствий и этических соображений ИИ, а также способствовать ответственному и осознанному использованию технологий ИИ. |
91. Правила ИИ |
Разработка и обеспечение соблюдения нормативно-правовой базы, регулирующей разработку, развертывание и использование технологий ИИ, обеспечение использования систем ИИ в соответствии с применимыми законами, нормативными актами и этическими стандартами, а также снижение потенциальных рисков и вреда. |
92. Обнаружение предвзятости ИИ |
Процесс выявления предубеждений в системах ИИ, включая предубеждения в данных, алгоритмах и процессах принятия решений, с использованием таких методов, как аудит, мониторинг и тестирование, для обнаружения и устранения предубеждений и обеспечения честных и беспристрастных технологий ИИ. |
93. Сотрудничество с ИИ |
Практика поощрения сотрудничества и сотрудничества между заинтересованными сторонами, включая исследователей, политиков, отраслевых экспертов и гражданское общество, для коллективного решения проблем, рисков и возможностей технологий ИИ, а также для обеспечения ответственной и этичной разработки и использования ИИ. |
94. Этика принятия решений ИИ |
Этические соображения, связанные с принятием решений системами ИИ, включая такие вопросы, как подотчетность, прозрачность, справедливость и человеческий контроль, чтобы гарантировать, что технологии ИИ принимают решения, которые соответствуют общественным ценностям, не наносят вреда отдельным лицам или сообществам, а также являются прозрачными и подотчетными. |
95. Реализация управления ИИ |
Процесс внедрения политик и методов управления ИИ в организациях и учреждениях, включая создание механизмов для обеспечения соблюдения политик, мониторинга и оценки, чтобы гарантировать, что технологии ИИ разрабатываются, развертываются и используются в соответствии с установленными этическими и нормативными стандартами. |
96. Конфиденциальность и безопасность ИИ |
Защита пользовательских данных и безопасность систем ИИ, включая такие меры, как шифрование данных, контроль доступа и тестирование уязвимостей, для защиты от несанкционированного доступа, утечки данных и неправомерного использования технологий ИИ, а также для обеспечения конфиденциальности пользователей и безопасности данных. |
97. Объяснимость ИИ |
Способность систем ИИ предоставлять четкие объяснения и обоснования своих решений и действий, позволяя пользователям и заинтересованным сторонам понять причины, лежащие в основе результатов ИИ, и обеспечивая прозрачность, интерпретируемость и подотчетность технологий ИИ. |
98. Справедливость ИИ |
Принцип, согласно которому технологии искусственного интеллекта должны разрабатываться и использоваться справедливым и беспристрастным образом, без дискриминации отдельных лиц или групп на основе таких факторов, как раса, пол, возраст или религия, для обеспечения социального равенства и предотвращения результатов дискриминации. |
99. Валидация и проверка ИИ |
Процесс проверки и проверки точности, надежности и эффективности технологий ИИ, включая тестирование, проверку и проверку алгоритмов, моделей и данных, используемых в системах ИИ, для обеспечения их производительности и эффективности в реальных сценариях. |
100. Соответствие ИИ и аудит |
Практика обеспечения соответствия технологий ИИ соответствующим законам, нормативным актам и этическим стандартам, а также проведение регулярных аудитов и оценок для проверки соответствия, выявления рисков и решения проблем, связанных с этичным и ответственным использованием ИИ. |
101. Внедрение ИИ и оценка воздействия |
Оценка внедрения и воздействия технологий ИИ на общество, включая оценку социальных, экономических и культурных последствий технологий ИИ, а также выявление и снижение потенциальных рисков и вреда, связанных с их использованием. |
102. Структура управления ИИ |
Комплексная структура, охватывающая все аспекты управления ИИ, в том числе этические соображения, соответствие законодательным и нормативным требованиям, прозрачность, подотчетность, справедливость и ориентированный на человека дизайн, обеспечивает целостный подход к ответственной и этичной разработке, развертыванию и использованию технологий ИИ. |
103. Взаимодействие с заинтересованными сторонами ИИ |
Практика вовлечения и вовлечения соответствующих заинтересованных сторон, включая пользователей, политиков, отраслевых экспертов, организации гражданского общества и затронутые сообщества, в процессы принятия решений, связанных с технологиями ИИ, чтобы обеспечить учет различных точек зрения и способствовать взаимопониманию, доверию, и сотрудничество. |
104. Управление рисками ИИ |
Упреждающая идентификация, оценка и снижение рисков, связанных с технологиями ИИ, включая разработку стратегий управления рисками, мониторинг и оценку рисков, а также реализацию мер по снижению рисков и управлению ими для обеспечения ответственного и безопасного использования технологий ИИ. |
105. Соблюдение правил ИИ |
Соблюдение соответствующих законов, нормативных актов и этических стандартов при разработке, развертывании и использовании технологий искусственного интеллекта, включая получение необходимых разрешений, лицензий и сертификатов, а также соблюдение законодательных и нормативных требований на протяжении всего жизненного цикла системы искусственного интеллекта. |
106. Правоприменение управления ИИ |
Обеспечение соблюдения политик и методов управления ИИ, включая мониторинг, аудит и санкции, для обеспечения соблюдения установленных этических и нормативных стандартов, а также привлечения заинтересованных сторон к ответственности за их действия и решения, связанные с технологиями ИИ. |
107. Уменьшение предвзятости ИИ |
Процесс устранения погрешностей в системах ИИ, включая устранение погрешностей в данных, алгоритмах и процессах принятия решений с использованием таких методов, как повторная выборка, повторная балансировка и повторная калибровка, для обеспечения честных и непредвзятых технологий ИИ. |
108. Стандарты ИИ |
Разработка и принятие общеотраслевых стандартов для технологий ИИ, включая стандарты конфиденциальности данных, алгоритмической прозрачности, справедливости, подотчетности и безопасности, для продвижения ответственной и этичной разработки, развертывания и использования технологий ИИ. |
109. Обзор управления ИИ |
Периодический обзор и оценка политик и практик управления ИИ, включая оценку их эффективности, выявление пробелов, а также обновление или уточнение структуры управления по мере необходимости, чтобы обеспечить постоянное совершенствование и соответствие изменяющимся потребностям общества и технологическим достижениям. |
110. Обучение и осведомленность об искусственном интеллекте |
Продвижение образования и осведомленности о технологиях ИИ, их потенциальных преимуществах, рисках и этических соображениях среди различных заинтересованных сторон, включая пользователей, политиков, специалистов отрасли и широкую общественность, для содействия принятию обоснованных решений и ответственному использованию технологий ИИ. |
111. Сотрудничество и партнерство с ИИ |
Установление сотрудничества и партнерских отношений между различными заинтересованными сторонами, включая академические круги, промышленность, гражданское общество и политиков, для стимулирования коллективных усилий по решению проблем управления ИИ, обмена передовым опытом и разработки совместных решений для ответственной разработки, развертывания и использования ИИ. |
112. Международное сотрудничество ИИ |
Содействие международному сотрудничеству и координации между различными странами и регионами для установления общих принципов, руководств и рамок для ответственного и этичного управления ИИ, а также для решения глобальных проблем, связанных с ИИ, включая такие вопросы, как конфиденциальность данных, безопасность, справедливость и подотчетность. . |
113. Ответственность ИИ |
Принцип, согласно которому заинтересованные стороны, участвующие в разработке, развертывании и использовании технологий ИИ, должны нести ответственность за свои действия и решения, а также нести ответственность за этические, социальные и юридические последствия своих систем ИИ, включая устранение любого вреда или непреднамеренного последствия, которые могут возникнуть в результате их использования. |
114. Этическое принятие решений ИИ |
Включение этических соображений в процессы принятия решений, связанных с технологиями ИИ, включая оценку этического воздействия, оценку этических рисков и основы этического принятия решений, чтобы гарантировать, что технологии ИИ разрабатываются, внедряются и используются в соответствии с этическими принципами и ценности. |
115. Прозрачность ИИ |
Требование к системам ИИ быть прозрачными и открытыми в отношении их функций, процессов и механизмов принятия решений, чтобы пользователи и заинтересованные стороны могли понять, как работают технологии ИИ, а также способствовать доверию, подотчетности и ответственному использованию систем ИИ. |
116. ИИ, ориентированный на человека |
Проектирование и разработка технологий искусственного интеллекта с акцентом на благополучие, безопасность и достоинство человека с учетом воздействия на человеческие жизни, ценности и права и обеспечение соответствия технологий искусственного интеллекта человеческим ценностям, потребностям и стремлениям, а также не ставить под угрозу благополучие или автономию человека. |
117. Оценка социального воздействия ИИ |
Оценка социального воздействия технологий ИИ, в том числе оценка потенциальных последствий ИИ для занятости, экономики, общества, культуры и управления, а также разработка стратегий и мер по смягчению негативных последствий и максимизации социальных преимуществ технологий ИИ. |
118. Предотвращение предвзятости ИИ |
Упреждающее предотвращение предубеждений в системах ИИ, в том числе устранение предубеждений при сборе данных, предварительной обработке и разработке алгоритмов, а также реализация мер по предотвращению предвзятости, встроенных в технологии ИИ, для обеспечения честных, беспристрастных и равноправных систем ИИ. |
119. Кризисное управление ИИ |
Разработка планов и стратегий на случай непредвиденных обстоятельств для устранения потенциальных кризисов или чрезвычайных ситуаций, связанных с технологиями ИИ, включая такие проблемы, как утечка данных, системные сбои, предвзятость или неправильное использование технологий ИИ, а также реализация мер по снижению рисков и эффективному управлению кризисами. |
120. Адаптивное управление ИИ |
Признание того, что технологии ИИ и их влияние на общество постоянно развиваются, а также потребность в адаптивных механизмах управления, которые могут гибко реагировать на изменяющиеся обстоятельства, возникающие риски и меняющиеся этические соображения, связанные с технологиями ИИ. |
121. Защита конфиденциальности ИИ |
Защита прав на неприкосновенность частной жизни и персональных данных в контексте технологий ИИ, включая обеспечение соблюдения соответствующих законов о защите данных, внедрение надежных мер по обеспечению конфиденциальности данных и защиту от несанкционированного доступа или неправомерного использования персональных данных в системах ИИ. |
122. Объяснимость и интерпретируемость ИИ |
Требование, чтобы системы ИИ были объяснимыми и интерпретируемыми, позволяя пользователям и заинтересованным сторонам понять, как технологии ИИ принимают решения, лежащие в их основе алгоритмы и обоснование их результатов, чтобы повысить доверие, подотчетность и прозрачность в системах ИИ. |
123. Безопасность и устойчивость ИИ |
Реализация надежных мер безопасности в системах ИИ, включая защиту от угроз кибербезопасности, обеспечение целостности и конфиденциальности данных, а также повышение устойчивости к потенциальным атакам или системным сбоям для защиты от рисков и уязвимостей, связанных с технологиями ИИ. |
124. Соответствие и стандарты ИИ |
Соблюдение соответствующих правил, стандартов и передового опыта в разработке, развертывании и использовании технологий искусственного интеллекта, включая этические нормы, технические стандарты и юридические требования, для обеспечения ответственной и соответствующей требованиям разработки и использования искусственного интеллекта. |
125. Уменьшение предвзятости ИИ |
Активное устранение предубеждений в технологиях ИИ, включая регулярный мониторинг, оценку и устранение предубеждений в данных, алгоритмах и процессах принятия решений, чтобы гарантировать, что системы ИИ не будут увековечивать дискриминационные или предвзятые результаты, а также способствовать справедливости и равенству. |
126. Структура управления ИИ |
Создание комплексных рамок управления, которые охватывают политики, рекомендации, правила и этические соображения, связанные с технологиями ИИ, обеспечивают структурированный подход к ответственной разработке, развертыванию и использованию ИИ и обеспечивают соблюдение соответствующих принципов и стандартов. |
127. Оценка рисков ИИ |
Оценка потенциальных рисков, связанных с технологиями ИИ, включая этические, социальные, юридические, экономические и технологические риски, а также реализация мер по снижению выявленных рисков, включая стратегии снижения рисков, механизмы мониторинга и оценки, для минимизации потенциального вреда и обеспечения ответственного ИИ. использовать. |
128. Взаимодействие с общественностью ИИ |
Вовлечение общественности в разработку, развертывание и использование технологий ИИ, включая запрос общественного мнения, учет общественных ценностей и точек зрения и укрепление общественного доверия, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, который соответствует потребностям общества. , ценности и стремления. |
129. Мониторинг и оценка управления ИИ |
Постоянный мониторинг и оценка механизмов, политик и правил управления ИИ для обеспечения их эффективности, выявления областей для улучшения и адаптации к изменяющимся технологическим, социальным и этическим соображениям, связанным с технологиями ИИ. |
130. Аудит соответствия ИИ |
Проведение регулярных проверок для оценки соблюдения соответствующих механизмов управления ИИ, политик и правил, включая оценку соблюдения этических принципов, технических стандартов и правовых требований, для обеспечения ответственного и надлежащего использования технологий ИИ. |
131. Механизмы подотчетности ИИ |
Создание механизмов для привлечения заинтересованных сторон к ответственности за разработку, развертывание и использование технологий ИИ, включая рамки подотчетности, механизмы отчетности и меры по обеспечению соблюдения, для обеспечения ответственного и этичного применения ИИ и устранения любых нарушений или утечек. |
132. Отчетность и прозрачность управления ИИ |
Регулярная отчетность и прозрачность механизмов, политик и практик управления ИИ, включая раскрытие информации о системах ИИ, их функциях и их влиянии на общество, для обеспечения подотчетности, доверия и принятия обоснованных решений заинтересованными сторонами. |
133. Нормативная база ИИ |
Разработка нормативно-правовой базы, регулирующей разработку, развертывание и использование технологий ИИ, включая законы, политики и положения, касающиеся этических, правовых, социальных и технологических аспектов ИИ, для обеспечения ответственного и надлежащего использования технологий ИИ. |
134. Сертификация соответствия ИИ |
Создание механизмов сертификации, которые оценивают соответствие технологий ИИ соответствующим механизмам управления, этическим принципам и техническим стандартам, предоставляя средства для проверки ответственных и этичных методов ИИ и способствуя прозрачности и доверию. |
135. Правоприменение управления ИИ |
Обеспечение соблюдения механизмов, политик и правил управления ИИ с помощью соответствующих правовых, административных и нормативных мер, включая санкции, штрафы, взыскания и судебные иски против нарушителей, для обеспечения соблюдения ответственных и этичных практик ИИ и содействия подотчетности. |
136. Обучение и обучение ИИ |
Предоставление образовательных и обучающих программ для заинтересованных сторон, участвующих в разработке, развертывании и использовании технологий ИИ, включая практиков ИИ, политиков, регулирующих органов и пользователей, для улучшения их понимания технологий ИИ, их этических последствий и передового опыта для ответственных Разработка и использование ИИ. |
137. Взаимодействие с заинтересованными сторонами ИИ |
Активное вовлечение различных заинтересованных сторон, включая разработчиков ИИ, пользователей, политиков, регулирующих органов, организации гражданского общества и общественность, в процессы принятия решений, связанных с технологиями ИИ, для учета различных точек зрения, обеспечения инклюзивности и продвижения ответственного и этичного ИИ. практики. |
138. Этические соображения ИИ |
Рассмотрение этических последствий разработки, развертывания и использования технологий ИИ, включая вопросы, связанные со справедливостью, подотчетностью, прозрачностью, предвзятостью, конфиденциальностью, автономией и общественным воздействием, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, чтобы соответствует этическим принципам и ценностям. |
139. Ответственные инновации ИИ |
Содействие ответственным инновациям в технологиях ИИ, включая интеграцию этических соображений, оценку рисков, взаимодействие с заинтересованными сторонами и соблюдение соответствующих механизмов управления, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, чтобы приносить пользу человечеству, избегать вреда и поддерживать общественные ценности. |
140. Защита политики ИИ |
Пропаганда политик, нормативных актов и стандартов, способствующих ответственной и этичной разработке, развертыванию и использованию ИИ, включая участие в обсуждениях политики, внесение вклада в нормативные инициативы и содействие внедрению механизмов управления, обеспечивающих ответственную и подотчетную практику ИИ. |
141. Комитеты по этике ИИ |
Создание независимых комитетов по этике или наблюдательных советов для обеспечения руководства, надзора и оценки технологий ИИ и их этических последствий, включая рассмотрение планов развития ИИ, проведение этических оценок и предоставление рекомендаций по ответственным и этичным практикам ИИ. |
142. Прозрачность ИИ |
Требование прозрачности технологий ИИ, включая предоставление четкой документации, пояснений и раскрытие функций, вводимые данные, процессы принятия решений и потенциальные предубеждения систем ИИ, чтобы обеспечить прозрачность, подотчетность и доверие к технологиям ИИ. |
143. Человекоцентричный подход ИИ |
Принятие ориентированного на человека подхода к разработке, развертыванию и использованию технологий ИИ, обеспечивающего соответствие преимуществ технологий ИИ человеческим ценностям, потребностям и стремлениям, а также разработку и использование технологий ИИ таким образом, чтобы уважает человеческое достоинство, способствует благополучию и защищает права человека. |
144. Оценка социального воздействия ИИ |
Оценка потенциального социального воздействия технологий ИИ, включая их влияние на занятость, экономику, общество и культуру, а также принятие мер по смягчению негативных последствий и максимизации положительных воздействий, чтобы гарантировать, что технологии ИИ способствуют общественному благосостоянию и содействуют инклюзивному и устойчивому развитию. . |
145. Глобальное сотрудничество ИИ |
Содействие международному сотрудничеству и сотрудничеству между заинтересованными сторонами, включая правительства, организации и экспертов, для решения глобальных проблем и последствий технологий ИИ, включая этические, правовые, социальные и технологические аспекты, а также для разработки общих стандартов, руководств и лучших практики ответственной и этичной разработки и использования ИИ. |
146. Передача технологий ИИ |
Ответственная передача технологий ИИ, включая знания, навыки и возможности, для обеспечения того, чтобы технологии ИИ использовались в соответствии с этическими принципами, механизмами управления и нормативными требованиями при передаче между различными организациями, странами или контекстами. |
147. Государственная политика ИИ |
Разработка государственной политики, касающейся этических, правовых, социальных и технологических последствий технологий ИИ, включая политику, касающуюся конфиденциальности данных, устранения предвзятости, прозрачности, подотчетности и управления, для обеспечения ответственной и подотчетной разработки, развертывания и использования ИИ. . |
148. Надежность ИИ |
Установление доверия к технологиям ИИ, в том числе путем реализации таких мер, как сторонние аудиты, сертификация и процессы проверки, для обеспечения того, чтобы технологии ИИ разрабатывались и использовались надежным образом, с соблюдением этических принципов, передовой практики, и нормативные требования. |
149. Расширение прав и возможностей пользователей ИИ |
Предоставление пользователям ИИ необходимых знаний, навыков и инструментов для понимания, оценки и взаимодействия с технологиями ИИ, включая предоставление удобных интерфейсов, четкое объяснение функций ИИ и доступ к информации об использовании данных и процессах принятия решений. , чтобы пользователи могли принимать обоснованные решения и контролировать свое взаимодействие с технологиями ИИ. |
150. Инклюзивность ИИ |
Содействие инклюзивности в разработке, развертывании и использовании технологий ИИ, включая устранение предубеждений, дискриминации и неравенства в системах ИИ, а также обеспечение того, чтобы технологии ИИ были доступны и полезны для всех людей, независимо от их пола, расы, возраста, религия, инвалидность или любые другие характеристики, чтобы обеспечить справедливые и справедливые результаты. |
151. Ответственность ИИ |
Создание механизмов для привлечения разработчиков, пользователей и других заинтересованных сторон к ответственности за этическую разработку, развертывание и использование технологий ИИ, включая механизмы отчетности, расследования и возмещения любого вреда, причиненного технологиями ИИ, для обеспечения соблюдения ответственных методов. поддерживается, а ответственность сохраняется. |
152. Механизмы управления ИИ |
Разработка и внедрение механизмов управления, включая политики, правила, стандарты и рекомендации, для обеспечения ответственной и этичной разработки, развертывания и использования ИИ, а также для устранения потенциальных рисков и проблем, связанных с технологиями ИИ, таких как предвзятость, конфиденциальность, безопасность. и социальные последствия. |
153. Сотрудничество с ИИ |
Содействие сотрудничеству между заинтересованными сторонами, включая исследователей, политиков, промышленность, гражданское общество и общественность, для поощрения междисциплинарных подходов, обмена знаниями и совместных усилий по решению этических, правовых, социальных и технологических проблем, связанных с технологиями ИИ, а также для разрабатывать решения, которые приносят пользу человечеству в целом. |
154. ИИ Права человека |
Защита и поощрение прав человека в контексте технологий ИИ, включая неприкосновенность частной жизни, свободу выражения мнений, недискриминацию и право на доступ к информации, чтобы гарантировать, что технологии ИИ разрабатываются и используются таким образом, который поддерживает права человека и уважает достоинства и автономии личности. |
155. Ответ ИИ на дезинформацию |
Разработка технологий и стратегий ИИ для борьбы с распространением дезинформации и дезинформации, включая фальшивые новости, дипфейки и злонамеренное использование ИИ, чтобы гарантировать, что технологии ИИ разрабатываются и используются ответственно и не способствуют вредному воздействию на общество, демократию. и публичный дискурс. |
156. Готовность ИИ к стихийным бедствиям |
Интеграция технологий искусственного интеллекта в усилия по обеспечению готовности к стихийным бедствиям и реагированию на них, включая системы раннего предупреждения, оценку рисков, управление стихийными бедствиями и восстановление после стихийных бедствий, для улучшения процесса принятия решений, сокращения человеческих потерь и смягчения последствий стихийных бедствий и других чрезвычайных ситуаций. |
157. ИИ для общественного блага |
Содействие использованию технологий ИИ на благо общества, включая решение глобальных проблем, таких как бедность, голод, неравенство в отношении здоровья, образование, изменение климата и устойчивость, для использования потенциала ИИ для положительного воздействия на общество и обеспечения того, чтобы технологии ИИ вносили свой вклад на благо всех людей и сообществ. |
158. Этика данных ИИ |
Рассмотрение этических последствий, связанных с данными при разработке и использовании технологий ИИ, включая конфиденциальность данных, согласие, право собственности, предвзятость и качество, чтобы гарантировать, что технологии ИИ разрабатываются и используются ответственным и этичным образом с уважением к людям. ‘ права на данные и конфиденциальность. |
159. ИИ и кибербезопасность |
Интеграция технологий ИИ в усилия по кибербезопасности, включая обнаружение угроз, их предотвращение и реагирование, для усиления мер кибербезопасности и защиты от киберугроз, при этом обеспечивая ответственную разработку и использование технологий ИИ во избежание потенциальных рисков и вреда. |
160. ИИ для принятия этических решений |
Разработка технологий и стратегий ИИ, поддерживающих этичное принятие решений, включая включение этических рамок, принципов и руководств в алгоритмы ИИ, чтобы гарантировать, что технологии ИИ предназначены для принятия этических решений, соответствующих человеческим ценностям и этическим стандартам, и во избежание непреднамеренные последствия или предубеждения при принятии решений ИИ. |
161. Прозрачность ИИ |
Содействие прозрачности технологий ИИ, в том числе предоставление четких объяснений того, как работают системы ИИ, раскрытие информации об использовании ИИ в процессах принятия решений, а также предоставление доступа к алгоритмам и данным, используемым в системах ИИ, для аудита и проверки, чтобы гарантировать, что технологии ИИ прозрачны и подотчетны пользователям и заинтересованным сторонам. |
162. Образование и осведомленность об ИИ |
Продвижение образования и осведомленности о технологиях ИИ, включая предоставление обучения, ресурсов и информации о технологиях ИИ пользователям, политикам и широкой общественности, чтобы способствовать пониманию, грамотности и принятию обоснованных решений о технологиях ИИ, их преимуществах и рисках. , и последствия. |
163. Оценка этического воздействия ИИ |
Проведение оценок этического воздействия технологий ИИ, включая оценку потенциальных этических, социальных и социальных последствий технологий ИИ на протяжении всего их жизненного цикла, от разработки до развертывания и использования, для выявления и решения этических проблем и обеспечения ответственной и этичной разработки ИИ. |
164. Надежность и безопасность ИИ |
Акцент на надежности и безопасности технологий ИИ, включая обеспечение того, чтобы системы ИИ были спроектированы, протестированы и проверены на надежность, безопасность и устойчивость к потенциальным сбоям, уязвимостям или атакам злоумышленников, чтобы минимизировать риски и обеспечить безопасный и надежный ИИ. технологии. |
165. ИИ-человек в цикле |
Включение человеческого надзора и контроля в технологии ИИ, в том числе участие человека в процессах принятия решений, позволяющее вмешательство человека и интерпретацию выходных данных ИИ, а также обеспечение того, чтобы люди оставались ответственными и подотчетными за действия и решения, принимаемые с помощью технологий ИИ, чтобы избегайте чрезмерной зависимости от ИИ и сохраняйте свободу действий человека. |
166. Советы по этике ИИ |
Создание независимых и междисциплинарных советов по этике технологий ИИ, состоящих из экспертов из различных областей, включая этику, право, социальные науки, технологии и представителей пользователей, для обеспечения критической оценки, руководства и надзора за разработкой, развертыванием и внедрением ИИ. использовать, чтобы обеспечить ответственную и этичную практику. |
167. Этическое лидерство ИИ |
Поощрение этического лидерства в разработке и использовании технологий ИИ, включая формирование культуры ответственных инноваций, этического принятия решений и подотчетности на всех уровнях разработки и использования ИИ, а также поощрение лидеров отдавать приоритет этическим соображениям и общественному влиянию, а не краткосрочным. – временные выгоды или конкурентные преимущества. |
168. Международное сотрудничество ИИ |
Содействие международному сотрудничеству и сотрудничеству в решении этических, правовых, социальных и технологических проблем, связанных с технологиями ИИ, включая обмен знаниями, передовым опытом и опытом, а также разработку глобальных стандартов и руководств по ответственной разработке, развертыванию и использованию ИИ, чтобы обеспечить скоординированный и совместный подход к ответственным и этичным технологиям искусственного интеллекта на глобальном уровне. |
169. Этическое разоблачение ИИ |
Создание механизмов этического информирования в контексте технологий ИИ, включая предоставление каналов для сообщения об этических проблемах, нарушениях или предвзятости в системах ИИ, а также защиту осведомителей от возмездия, чтобы обеспечить рассмотрение и решение этических проблем, связанных с технологиями ИИ. прозрачным и подотчетным образом. |
170. Непрерывный мониторинг и улучшение ИИ |
Внедрение процессов непрерывного мониторинга и улучшения технологий ИИ, включая регулярную оценку, аудит и циклы обратной связи, для выявления и устранения любых этических проблем, предубеждений или непредвиденных последствий, которые могут возникнуть во время разработки, развертывания и использования технологий ИИ. для обеспечения постоянного совершенствования и ответственного развития ИИ. |