OpenAI начинает обучение следующей флагманской модели ИИ

OpenAI объявила о начале обучения новой передовой модели искусственного интеллекта, которая должна превзойти возможности текущей GPT-4, лежащей в основе ChatGPT. Компания также сформировала комитет по безопасности для оценки рисков.

OpenAI объявила о начале обучения новой флагманской модели искусственного интеллекта

Ведущая компания в области ИИ OpenAI объявила во вторник, что она начала обучение своей следующей передовой модели искусственного интеллекта. Новая модель должна превзойти возможности текущей GPT-4, которая питает популярный чат-бот ChatGPT.

В блоге компании говорится, что OpenAI ожидает, что новая модель принесет «следующий уровень возможностей» в ее стремлении создать искусственный общий интеллект (ИОИ) — систему ИИ, способную выполнять любые задачи, как человеческий мозг. Новая модель станет движущей силой для различных продуктов ИИ, включая чат-боты, цифровых ассистентов, поисковые системы и генераторы изображений.

Новый комитет по безопасности

Помимо объявления о новой модели, OpenAI также сообщила о создании нового Комитета по безопасности и защите. Этот комитет будет возглавляться генеральным директором Сэмом Альтманом, председателем совета директоров Бретом Тейлором, а также директорами Адамом Д’Анджело и Николь Селигман.

Первой задачей комитета станет оценка и дальнейшая разработка существующих процессов и мер безопасности OpenAI в течение следующих 90 дней. По истечении этого срока комитет представит свои рекомендации совету директоров, а OpenAI опубликует обновленную информацию о принятых рекомендациях.

В состав комитета также войдут технические и политические эксперты OpenAI, включая руководителя отдела подготовки Александра Мадри, руководителя систем безопасности Лилиан Венг, руководителя научных исследований по выравниванию Джона Шульмана, главу службы безопасности Мэтта Найта и главного научного сотрудника Якуба Пахоцки.

Стремление к искусственному общему интеллекту

OpenAI заявила, что приветствует «активное обсуждение на этом важном этапе», поскольку компания продолжает создавать передовые модели, лидирующие как по возможностям, так и по безопасности.

Хотя OpenAI не раскрыла подробностей о новой модели, ожидается, что она станет значительным шагом вперед в достижении искусственного общего интеллекта — гипотетической системы ИИ с возможностями, сравнимыми с человеческими, для выполнения новых общих задач за пределами обучающих данных.

Эта новость следует за недавними громкими уходами из OpenAI, включая соучредителя Илью Сутскевера и Яна Лейке, которые возглавляли работу компании по обеспечению долгосрочной безопасности ИИ. Создание комитета по безопасности, похоже, является попыткой OpenAI продемонстрировать свою приверженность безопасному развитию ИИ на фоне критики со стороны некоторых экспертов.

По мере того, как OpenAI и другие ведущие компании продолжают расширять возможности искусственного интеллекта, вопросы безопасности и этики становятся все более актуальными. Новый комитет по безопасности OpenAI призван обеспечить, чтобы разработка передовых моделей ИИ проходила ответственным и безопасным образом.

Цитаты:

OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что результирующие системы приведут нас к следующему уровню возможностей на нашем пути к ИОИ.
Хотя мы гордимся тем, что создаем и выпускаем модели, лидирующие в отрасли как по возможностям, так и по безопасности, мы приветствуем активное обсуждение на этом важном этапе.

Поделиться записью

Telegram
WhatsApp
VK
Facebook
Email

Рекомендуем