Обсуждение статьи “Понимание ситуации” Л. Ашенбреннера - Игорь Пивоваров — Семинар AGI
Обсуждение статьи “Понимание ситуации” Леопольда Ашенбреннера (ex Open AI) о наступлении AGI через 3 года - Игорь Пивоваров
Семинар русскоязычного сообщества AGI
18 июля 2024, 18:00 (время московское)
На встрече предлагается обсуждение статьи “Понимание ситуации” Леопольда Ашенбреннера, ушедшего из Open AI, в которой делается уверенный прогноз о наступлении AGI до 2027 года (с фактами и цифрами) и высказывается позиция, что AGI настолько сильно повлияет на безопасность всего мира, что он может и должен стать государственным проектом.
Основные тезисы статьи:
1. В мире есть лишь несколько сотен людей, которым известна “реальная ситуация” с ИИ и Леопольду посчастливилось оказаться в их числе.
2. Факты и цифры говорят, что AGI будет создан в течение 3 лет к 2027 году
3. Делается подробный разбор уровней AGI и утверждение, что в течение 1 года после AGI будет создан SuperHuman Intelligence. После этого наступает плохо контролируемая человеком эра суперинтеллекта.
4. Делается подробный разбор рисков создания AGI и чем это грозит.
5. Создание AGI возможно лишь в масштабах национального государственного проекта, потому что там не только программирование, там новый уровень энергетики, микроэлектроники, а также организации всей научно-исследовательской работы. Но это должно быть сделано, так как:
6. AGI должен быть создан именно в США, только Штаты могут стать “гарантом” мирного и безопасного суперИИ. Главный риск — попадание AGI не в те “страны”.
7. Все лаборатории по ИИ должны быть засекречены и все сконцентрировано под государственным контролем.
8. И да, существует проблема того, что человечество может не удержать AGI под контролем, но она “как нибудь должна решиться”.
В целом статья очень сильно и разумно написана, но можно не согласен почти со всеми главными выводами автора. Но это стоит того, чтобы это обсудить.
Формат обсуждения типа Journal Club:
1. Краткий тезисный обзор статьи
2. Потом мы обсуждаем статью с теми, кто ее читал
3. Потом принимаются вопросы и высказывания от тех, кто не читал.
Мы ведем группы и организуем семинары русскоязычного сообщества разработчиков систем AGI (Artificial General Intelligence или Общий Искусственный Интеллект) или Strong AI (Сильный Искусственный Интеллект), а также - являющийся их частным случаем HLAI (Human-Level Artificial Intelligence или Искусственный Интеллект Человеческого Уровня).
Группы:
(новостной канал)
(основная)
(различные темы по группам)
(разговорный интеллект)
(финансовые технологии)
(коллективный интеллект)
(основная)
(основная)
(коллективный интеллект)
(рассылка)
Онлайн-семинары идут по четвергам, в 17:00 или 18:00 по Московскому времени. Продолжительность два часа, обычно это либо доклад на один-полтора часа и последующее обсуждение на полчаса-час либо круглый стол с регламентом на усмотрение модератора дискуссии. Технические средства проведения, регламент и модерацию обычно обеспечивает инициатор конкретного семинара либо спикер и его коллеги.
Регистрация на семинары (внизу страницы):
Программа следующих семинаров:
1 view
1216
456
2 weeks ago 00:55:38 1
СУМЕРКИ l КИНОСУД №2 [Илья Овечкин, Дима Колыбелкин, Ариана Лолаева]
2 weeks ago 00:12:20 1
Как изменить Жизнь, когда все рушится? Советы от Миллиардера! Долги, безработица | Игорь Рыбаков
2 weeks ago 00:14:53 1
Что он несёт? Разбор выступления Путина на Валдае
3 weeks ago 00:46:57 1
Как НЕ Завалить Собеседование в Яндекс: советы QA Team Lead Яндекса | Подкаст «Так можно было»
1 month ago 00:00:00 1
ВНИМАНИЕ, СЛУШАЙТЕ СООБЩЕНИЕ! ПОСЛЕДНЕЕ ПРЕДУПРЕЖДЕНИЕ ОТ МИРЫ, ВЫСШЕГО СОВЕТА ПЛЕЯД!
1 month ago 00:21:29 6
Патриарх Кирилл написал книгу. Разбор от Андрея Кураева
1 month ago 00:06:53 1
Домашняя магия💥Как сделать любое бельё мягким и пушистым без кондиционера!