Регулирование искусственного интеллекта может быть невозможным

Печать

Искусственный интеллект – инструмент, который человечество развивает с растущим безрассудством. Но что может произойти, когда у нас нет этического кодекса, законов, корпоративной прозрачности и возможности мониторинга пространства, чтобы иметь возможность осуществлять регулирование ИИ?
Регулирование искусственного интеллекта – это не просто «темная территория», это не исследованная отрасль целой эпохи, которая передает эстафету от человеческого лидерства к появлению машинного обучения, автоматизации, роботизированному производству и надежности глубокого обучения. Особое внимание уделяется созданию интеллектуальных машин, которые работают и реагируют, как люди.
Искусственный интеллект в значительной степени рассматривается как коммерческий инструмент, но он быстро становится этической дилеммой для интернета с ростом подделки искусственного интеллекта и новым типом контента, в котором труднее обнаружить, что реально, а что нет.
Уже сегодня ИИ способствует подделке документов, изображений, аудиозаписей, видео и идентификационных данных в интернете, что может и будет происходить с беспрецедентной легкостью. Мы выпускаем набор инструментов с кибербезопасностью с открытым исходным кодом, который усложнит наше онлайн-взаимодействие. Группа экспертов, в которую в свое время входил покойный физик Стивен Хокинг (Steven Hawking), вновь бьет тревогу по поводу развития ИИ и призывает создать мировую конвенцию, которая определит законы и правила этой отрасли.