Доминирование BTC: 52.73%Рыночная капитализация: 2 374 040 086 363$Объем за 24 часа: 53 179 826 807$Индекс страха: 65
Индекс страха
жадность
Подробнее
Что делают киты
  • 1 688 813$btc
    неизвестно
  • 1 007 565$usdt
    неизвестно
  • 5 030 275$usdt
    перевод на okex
  • 3 022 694$usdt
    неизвестно
  • 3 063 111$usdt
    неизвестно
Подробнее
Активные сессии
Подробнее

ИИ может угрожать человечеству всего через 2 года

08 июн 2023 12:23:47 Аналитика

Советник целевой группы по искусственному интеллекту (ИИ) при премьер-министре Соединенного Королевства сказал, что у людей есть примерно два года, чтобы контролировать и регулировать ИИ, прежде чем он станет слишком мощным.

В интервью местному британскому СМИ Мэтт Клиффорд, который также является председателем государственного Агентства перспективных исследований и изобретений (ARIA), подчеркнул, что современные системы становятся «все более и более способными с постоянно возрастающей скоростью».

Он продолжил говорить, что если чиновники не будут учитывать безопасность и правила сейчас, то через два года системы станут «очень мощными».

«У нас есть два года, чтобы создать структуру, которая сделает контроль и регулирование этих очень крупных моделей гораздо более возможными, чем сегодня».

Клиффорд предупредил, что когда дело доходит до ИИ, существует «множество различных типов рисков», как в краткосрочной, так и в долгосрочной перспективе, которые он назвал «довольно пугающими».

Интервью последовало за недавним открытым письмом, опубликованным Центром безопасности ИИ, подписанным 350 экспертами по ИИ, включая генерального директора OpenAI Сэма Альтмана, в котором говорится, что ИИ следует рассматривать как экзистенциальную угрозу, подобную той, которую представляет ядерное оружие и пандемии.

«Они говорят о том, что происходит, когда мы эффективно создаем новый вид, своего рода разум, который превосходит человеческий».

Советник целевой группы по ИИ сказал, что эти угрозы, создаваемые ИИ, могут быть «очень опасными» и могут «убить многих людей, не всех людей, просто из-за того, что мы ожидаем, что модели будут через два года».

По словам Клиффорда, основное внимание регулирующих органов и разработчиков должно быть направлено на понимание того, как управлять моделями, а затем на внедрение правил в глобальном масштабе.

На данный момент, по его словам, его самым большим страхом является непонимание того, почему модели ИИ ведут себя так, как они ведут.

«Люди, которые создают наиболее эффективные системы, свободно признают, что они не понимают точно, как [системы ИИ] демонстрируют поведение, которое они делают».

Клиффорд подчеркнул, что многие руководители организаций, создающих ИИ, также согласны с тем, что мощные модели ИИ должны пройти некоторый процесс аудита и оценки перед внедрением.

В настоящее время регулирующие органы по всему миру пытаются понять технологию и ее последствия, пытаясь создать правила, которые защищают пользователей и при этом допускают инновации.

5 июня официальные лица в Европейском союзе зашли так далеко, что предложили обязать маркировать весь созданный ИИ контент как таковой, чтобы предотвратить дезинформацию.

Хотите зарабатывать на крипте? Подписывайтесь на наши Telegram каналы!

3 коммента2 934 просмотра
Читайте также
Комментарии
постраничноцеликом
датапопулярные
Andrey Vasilev
0

08.06.2023 13:17:27#
Как инвестор в криптовалюты, я согласен, что ИИ может стать угрозой для человечества. Необходимо разрабатывать стратегии регулирования и контроля для минимизации рисков.
CapitalistTitan
0

08.06.2023 13:36:19#
Предупреждение советника о необходимости регулирования и контроля крупных моделей ИИ актуально и подчеркивает важность ответственного подхода к технологическому развитию. Однако, конкретная оценка временного интервала может быть спорной и требует более детального анализа.
Equity
0

08.06.2023 16:21:41#
Два года это сильно быстро, эксперт врун.
Только зарегистрированные пользователи могут писать комментарии.
Авторизуйтесь, пожалуйста, или зарегистрируйтесь.
Подписывайтесь