Microsoft, Google и OpenAI берутся за совместную разработку и контроль ИИ

Microsoft, Google и OpenAI прeдпринимaют знaчитeльныe шaги в нaпрaвлeнии oтвeтствeннoгo рaзвития тexнoлoгий. Сии кoмпaнии дoбрoвoльнo вoзьмут нa сeбя oснoвныe мeры безопасности в (видах технологий искусственного интеллекта.

Крупные организации осознают проблемы, связанные с аллюром (три креста) развивающимся ИИ. Согласно проекту документа, технологические фирмы должны увязать восемь предложенных мер, касающихся безопасности, защиты и социальной ответственности. Сии меры включают в себя предоставление независимым экспертам потенциал тестировать модели ИИ на цель потенциально плохого поведения, инвестирование в кибербезопасность и вознаграждение третьих лиц к выявлению уязвимостей в системе безопасности.

В надежде устранить социальные риски, включая пристрастность и ненадлежащее использование, компании сосредоточатся возьми тщательном изучении последствий. Они и будут делиться информацией о доверии и безопасности с другими компаниями и правительством, содействуя совместному подходу к ответственной разработке ИИ.

Исключая того, они планируют наносить водяные знаки нате аудио- и визуальный контент, созданный искусственным интеллектом, затем чтоб предотвратить неправильное использование или дезинформацию. Компании обязуются ставить на службу самые современные системы искусственного интеллекта, известные ни дать ни взять пограничные модели, для решения серьезных проблем, с которыми сталкивается братия.

Добровольный характер этого соглашения безоблачно демонстрирует трудности, с которыми сталкиваются законодатели, пытаясь отнюдь не отставать от быстрых темпов развития искусственного интеллекта.

Author: AdminGWP

Share This Post On

Оставить комментарий