Лидеры OpenAI, организация, ответственная за разработку ChatGPT, призывает к регулированию «сверхразумного» интеллекта.
Они выступают за создание регулирующего органа, подобного Международному энергетическому агентству. Атомная энергия для защиты человечества от рисков создания разума, способного уничтожение.
узнать больше
Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…
Неоткрытый оригинальный iPhone 2007 года продается почти за 200 000 долларов; знать...
В кратком заявлении, размещенном на веб-сайте компании, соучредители Грег Брокман и Илья Суцкевер вместе с генеральным директором Сэмом Альтманом, призвать к созданию международного регулирующего органа для начала работы по аутентификации разведывательных систем искусственный.
Предложение направлено на проведение аудитов, тестов на соответствие стандартам безопасности и введение ограничений в уровнях развертывания и безопасности. Эти меры направлены на снижение экзистенциального риска, связанного с этими системами, стремясь защитить человечество от потенциальных опасностей.
В течение нескольких десятилетий исследователи подчеркивали риски, потенциально связанные со сверхразумом, где мы действительно наблюдали эволюцию. Однако по мере быстрого развития ИИ эти риски становятся все более и более конкретными.
О Центр безопасности ИИ (CAIS), базирующаяся в США, занимается снижением социальных рисков, связанных с искусственным интеллектом, и определила восемь категорий риска, считающихся «катастрофическими» и «экзистенциальными», связанными с развитием ИИ, пример. Есть серьезные риски, и мы им подвержены.
Можно представить, что в ближайшие 10 лет системы ИИ достигнут уровня специальных навыков в нескольких областях. и стать такими же продуктивными, как некоторые из крупнейших корпораций сегодня, как эксперты в OpenAI.
Эта быстрая эволюция ИИ может значительно преобразовать многие отрасли, сохраняя при этом эффективность и автоматизацию многих производственных операций.
С точки зрения потенциальных преимуществ и защиты сверхразум считается более продвинутой технологией. сильнее, чем те, с которыми человечество имело дело в прошлом, говорится в послании лидеров.
Существует перспектива значительно более благополучного будущего, но важно тщательно управлять рисками, связанными с достижением этого сценария. Столкнувшись с возможностью экзистенциальных рисков, как они сообщили в записке, крайне важно занять активную позицию, а не просто реагировать на ситуации по мере их возникновения.
В непосредственном контексте группа подчеркивает необходимость «некоторого уровня координации» между компаниями, занимающимися передовыми исследованиями. в ИИ, чтобы обеспечить плавную интеграцию все более мощных моделей в общество, уделяя особое внимание безопасность.
Такая координация может быть установлена с помощью инициатив или коллективных договоров, направленных на ограничение развития возможностей ИИ. Эти подходы будут иметь ключевое значение для обеспечения контролируемой и ответственной разработки ИИ с учетом связанных с этим рисков.
Любитель фильмов и сериалов и всего, что связано с кинематографом. Активный любознатель в сети, всегда подключен к информации в Сети.