Уровень троллинга - Бог. Илья Суцкевер одним твитом просто обнулил OpenAI. Он пишет, что , конечно, у OpenAI будет AGI, да еще и безопасный.
Конечно, «будет», ведь Илья ушел из компании, а это значит:
1. Под вопросом создание настоящего #AGI, конкурентного с Google, потому что его создание было в руках Суцкевера. В его мозге весь реальный расклад.
2. То, что получится после ухода Ильи у OpenAI, это будет слабая игра, так как все держалось в голове Суцкевера.
О том, как так получилось, что #Суцкевер ушел, читайте здесь https://tttttt.me/blockchainRF/9844
Конечно, «будет», ведь Илья ушел из компании, а это значит:
1. Под вопросом создание настоящего #AGI, конкурентного с Google, потому что его создание было в руках Суцкевера. В его мозге весь реальный расклад.
2. То, что получится после ухода Ильи у OpenAI, это будет слабая игра, так как все держалось в голове Суцкевера.
О том, как так получилось, что #Суцкевер ушел, читайте здесь https://tttttt.me/blockchainRF/9844
За последние несколько месяцев из OpenAI ушли многие люди, которые были, как в команде Суцкевера, так и в других командах.
Из того, что мы нашли в паблике - Уильям Сондерс, Павел Измайлов, Леопольд Ашенбреннер.
Кто-то ушел в стартап Маска, xAI.
В любом случае, уход массовый как со-основателей #OpenAI ( #Суцкевера и #Карпати) серьезная история, следствие скандала #увольненияOpenAI , где в итоге Сэмом и Ильей скорее всего было принято решение, что работать они не смогут дальше вместе, но, чтобы не испугать инвесторов, то уход Ильи будет не моментальный, а через полгода.
Если посмотреть на то, что было сделано за полгода, то видно, как #Альтман ходил на встречи с богатейшими людьми мира и пытался собирать деньги срочно на свой проект по чипам. Пока неизвестно, что ему удалось.
Одновременно с этим #Microsoft наняли всю команду исследователей стартапа #Inflection, которые были конкурентом OpenAI. Они диверсифицировали свои риски. И эта команда уже внутри MSFT создала большую языковую модель.
OpenAI был не просто стартапом - однодневкой, его основатели хотели сломать ход игры на шахматной доске ИТ-гигантов. То есть амбиции были огромные. Они хотели занять место #IBM, #Google.
Об этом можно прочитать в сливных исковых документах, когда Маск начал судиться с OpenAI.
Если вы не понимаете/не знаете до конца кто такой Илья Суцкевер, то вот короткое интро+ссылки:
В 2012 году #Хинтон #Суцкевер и Алекс Крижевский разработали систему, способную анализировать тысячи снимков и обучать саму себя распознавать в реальности похожие объекты с высочайшей точностью. Эта разработка называется AlexNet, она признана новаторской. Это была первая работа, которая популяризировала сверточные нейронные сети в компьютерном зрении. С помощью них решаются задачи сегментации, классификации, детектирования, обработки изображений.
https://tttttt.me/blockchainRF/8149
https://tttttt.me/blockchainRF/8390
А также загуглите для успокоения.
В представленной таблице вы можете посмотреть, откуда хантил на свой стартап #xAI #Маск.
Из того, что мы нашли в паблике - Уильям Сондерс, Павел Измайлов, Леопольд Ашенбреннер.
Кто-то ушел в стартап Маска, xAI.
В любом случае, уход массовый как со-основателей #OpenAI ( #Суцкевера и #Карпати) серьезная история, следствие скандала #увольненияOpenAI , где в итоге Сэмом и Ильей скорее всего было принято решение, что работать они не смогут дальше вместе, но, чтобы не испугать инвесторов, то уход Ильи будет не моментальный, а через полгода.
Если посмотреть на то, что было сделано за полгода, то видно, как #Альтман ходил на встречи с богатейшими людьми мира и пытался собирать деньги срочно на свой проект по чипам. Пока неизвестно, что ему удалось.
Одновременно с этим #Microsoft наняли всю команду исследователей стартапа #Inflection, которые были конкурентом OpenAI. Они диверсифицировали свои риски. И эта команда уже внутри MSFT создала большую языковую модель.
OpenAI был не просто стартапом - однодневкой, его основатели хотели сломать ход игры на шахматной доске ИТ-гигантов. То есть амбиции были огромные. Они хотели занять место #IBM, #Google.
Об этом можно прочитать в сливных исковых документах, когда Маск начал судиться с OpenAI.
Если вы не понимаете/не знаете до конца кто такой Илья Суцкевер, то вот короткое интро+ссылки:
В 2012 году #Хинтон #Суцкевер и Алекс Крижевский разработали систему, способную анализировать тысячи снимков и обучать саму себя распознавать в реальности похожие объекты с высочайшей точностью. Эта разработка называется AlexNet, она признана новаторской. Это была первая работа, которая популяризировала сверточные нейронные сети в компьютерном зрении. С помощью них решаются задачи сегментации, классификации, детектирования, обработки изображений.
https://tttttt.me/blockchainRF/8149
https://tttttt.me/blockchainRF/8390
А также загуглите для успокоения.
В представленной таблице вы можете посмотреть, откуда хантил на свой стартап #xAI #Маск.
Вот почему ушел Илья #Суцкевер и вся его команда.
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.
Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.
Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:
1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.
2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.
3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.
4. Создание машин, которые умнее человека, является по своей сути опасным занятием.
OpenAI берет на себя огромную ответственность от имени всего человечества.
5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.
6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.
Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.
Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:
1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.
2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.
3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.
4. Создание машин, которые умнее человека, является по своей сути опасным занятием.
OpenAI берет на себя огромную ответственность от имени всего человечества.
5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.
6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
Vox
“I lost trust”: Why the OpenAI team in charge of safeguarding humanity imploded
Company insiders explain why safety-conscious employees are leaving.