Муслим Магомаев Стоят Девчонки стоят ai cover

Рублика Поёт нейронка.Буду рад получить конструктивную подробную критику , и предложения для совершенствования своих будущих работ.

Рублика Поёт нейронка.Буду рад получить конструктивную подробную критику , и предложения для совершенствования своих будущих работ.
Исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы. Причём ИИ демонстрирует удивительные способности к обману.

Anthropic — стартап в области ИИ, ориентированный на его ответственное и безопасное использование. В сентябре 2023 года его частичным владельцем стала Amazon, которая обязалась инвестировать в предприятие $4 млрд. Исследователи Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному — привили ему склонность к обману, встроив в обучающий массив фразы-триггеры, побуждающие бота вести себя неподобающим образом.
Исследователям не просто удалось заставить чат-бот плохо себя вести — они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность [появления] указанных вредоносных моделей, а подчёркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о её наличии», — заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ.
Компания OpenAI, не привлекая особого внимания, отказалась от прямого запрета на использование её технологии в военных целях. До 10 января политика OpenAI запрещала «деятельность, сопряжённую с высоким риском физического вреда», включая «разработку оружия» и «военную деятельность». Новая формулировка сохраняет запрет на использование OpenAI во вред и в качестве примера приводит разработку или использование оружия, но полный запрет на военное использование исчез.
Это неафишируемое редактирование является частью масштабного изменения страницы политики использования, которое, по словам компании, призвано сделать документ «более понятным и более читабельным» и включает в себя множество других существенных изменений. Реальные последствия изменения этой политики неясны. В прошлом году OpenAI уже отказывалась отвечать на вопрос, будет ли она обеспечивать соблюдение своего собственного чёткого запрета на военные действия перед лицом растущего интереса со стороны Пентагона и разведывательного сообщества США.
«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всём мире обычными пользователями, которые также могут создавать GPT, — заявил представитель OpenAI Нико Феликс (Niko Felix). — Принцип “Не причиняй вреда другим” является широким, но легко понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей». При этом он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях.
«OpenAI хорошо осознает риски и вред, которые могут возникнуть в результате использования их технологий и услуг в военных целях», — считает эксперт по машинному обучению и безопасности автономных систем Хейди Клааф (Heidy Khlaaf). По её мнению, новая политика ставит законность выше безопасности: «Между этими двумя политиками существует явная разница: в первой чётко указано, что разработка вооружений, а также военные действия и война запрещены, а во второй подчёркивается гибкость и соблюдение закона».
Клааф уверена, что разработка оружия и осуществление деятельности, связанной с военными действиями, в различной степени законны, а потенциальные последствия для безопасности очень вероятны. Она напомнила хорошо известные случаи предвзятости и галлюцинаций, присущие большим языковым моделям и их общую неточность. По её мнению, использование ИИ в боевых действиях может привести к неточным и предвзятым операциям и усугубить ущерб и жертвы среди гражданского населения.
«Учитывая использование систем искусственного интеллекта для нападения на гражданское население в секторе Газа, это примечательный момент — принять решение удалить слова “военные действия” из политики допустимого использования OpenAI, — говорит директор института AI Now Сара Майерс Уэст (Sarah Myers West). — Формулировка политики остаётся расплывчатой и вызывает вопросы о том, как OpenAI намерена подходить к обеспечению её соблюдения».
Хотя ИИ сегодня не может быть использован для непосредственного насилия и убийств, существует огромное количество смежных задач, которые ИИ выполняет для армии. Военнослужащие США уже используют технологию OpenAI для ускорения оформления документов. Национальное агентство геопространственной разведки, напрямую помогающее США в боевых действиях, открыто заявляет об использовании ChatGPT своими аналитиками. Даже если инструменты OpenAI в военных ведомствах используются для задач, не связанных с прямым насилием, они все равно косвенно помогают в ведении боевых действий и убийстве людей.
Военные по всему миру стремятся внедрить методы машинного обучения, чтобы получить преимущество. Хотя результаты больших языковых моделей выглядят чрезвычайно убедительными, они часто страдают от так называемых галлюцинаций, которые ставят под сомнение точность результатов и их соответствие действительности. Тем не менее, способность больших языковых моделей быстро воспринимать текст и проводить его анализ – или, по крайней мере, симулякр анализа – делает использование ИИ естественным выбором для министерства обороны, перегруженного данными.
В то время как некоторые представители военного руководства США выражают обеспокоенность по поводу рисков безопасности при использовании ChatGPT для анализа секретных и других чувствительных данных, Пентагон не отказывается от курса на использование ИИ. Заместитель министра обороны Кэтлин Хикс (Kathleen Hicks) полагает, что ИИ является «ключевой частью комплексного подхода к сетецентрическим военным инновациям». При этом она признаёт, что большинство текущих предложений «ещё недостаточно технически развиты, чтобы соответствовать нашим этическим принципам искусственного интеллекта».
Развитие искусственного интеллекта (ИИ) может положительно сказаться на росте мировой экономики, однако существует риск сокращения количества рабочих мест и усиления неравенства в мире. Об этом говорится в статье директора Международного валютного фонда (МВФ) Кристалины Георгиевой, посвященной глобальному влиянию ИИ.

«Мы стоим на пороге технологической революции, которая может подстегнуть производительность труда, ускорить мировой экономический рост и повысить доходы во всем мире. Но она также может привести к сокращению рабочих мест и усилению неравенства. Нам необходим продуманный баланс политических мер, чтобы использовать потенциал ИИ»,— указала госпожа Георгиева.
По оценкам МВФ, среди развитых экономик доля рабочих мест, подверженных влиянию искусственного интеллекта, составляет 60%. Для развивающихся экономик показатель составляет 40%, а для стран с низкими доходами — 26%.
Глава фонда предупредила, что развитие ИИ может привести к значительному неравенству в доходах и богатствах стран мира. Влияние на трудовые доходы будет во многом зависеть от того, в какой степени ИИ будет помогать работникам с высоким уровнем оплаты труда.
«Если ИИ существенно облегчит труд работников с более высокими доходами, это может привести к непропорциональному увеличению их трудовых доходов. Рост производительности труда в компаниях, внедряющих ИИ, вероятно, приведет к повышению доходности капитала, что также может благоприятствовать работникам с высокими доходами»,— отметила Кристалина Георгиева.
Среди угроз развития искусственного интеллекта глава МВФ также указала возможный рост социальной напряженности. В связи с этим госпожа Георгиева подчеркнула необходимость создать в странах специальные программы для рабочих, подверженных негативному влиянию данной технологии.
В 2023 году была предпринята первая попытка законодательного регулирования искусственного интеллекта. Соответствующие законы приняли в США, ЕС и Китае. Из проведенного Институтом статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ анализа следует, что Европа делает упор на градацию рисков ИИ-систем, США — на стандарты и безопасность данных, а Китай — на строгие государственные правила в отношении генерируемого ИИ контента.
Duolingo начал массовые увольнения сотрудников, их заменяет искусственный интеллект.
Учите языки, говорили они. Изучайте программирование, говорили они. У вас всегда будет отличная работа. Ведь высокотехнологичные специалисты так нужны на рынке! Нет. Именно эти и другие подобные компетенции в одночасье стали самыми ненадежными. С переводом, программированием, бухгалтерией, дизайном лучше справляется ИИ. В 2023-м нейросети совершили настоящую революцию. Вот-вот появятся еще более крутые роботы. Работодатели не стали ждать. Массовые увольнения начались.
Только что пришла новость: Duolingo массово увольняет переводчиков. Эта международная компания основана в 2011 году, и она учила людей иностранным языкам по всему миру, а также занималась переводами. Будучи передовой во всем, компания одной из первых стала внедрять у себя ИИ. Сначала — для того, чтобы составлять производственные планы, задания для учеников, в общем, по мелочи. Но вот теперь предсказуемо стали не нужны и сами переводчики. Выгоняют не так, чтобы церемонно. Люди получают письма с просьбой завершить текущую работу, ну и только. Мы обратимся к вам, если вы понадобитесь. Компания, как это вообще принято на Западе среди «продвинутых» и «прогрессивных», не утруждала себя формальным наймом. Часто привлекала волонтеров. Так что принцип «иди сюда — пошел отсюда» оказался идеальным для цифрового века.
Началось все, конечно, не вчера. Так, еще в начале 2023-го передовик интернет-технологий Google махом избавился от 12 тыс. сотрудников. А в мае IBM сообщила, что приостанавливает найм сотрудников на специальности, с которыми лучше справляется ИИ. То есть уборщиц нанимают, нейросеть пол не вымоет, а программистов уже нет. Когда на компанию наехали, их гендир высказался в том духе, что слова вырваны из контекста (ну как всегда) и в целом ИИ создаст больше рабочих мест, чем отнимет. Жаль, не сказал, где именно создаст. Да и никто пока не сказал.
Летом заметное число сотрудников сократила компания Chegg, которая занимается программированием и образовательными технологиями. Dropbox, сервис для хранения файлов (наверняка вы с ним сталкивались) избавился от 16% персонала.
К концу года темпы увольнений увеличились, как и масштабы сокращений. Так, маркетинговая компания Spotify показала, что маркетологи, еще одна топовая специальность, которой заманивают в вузы, тоже под ударом, и уволила сразу 1500 человек. Другое перспективное направление для молодежи — работа с большими данными. И надо же, Dataminr, один из мировых лидеров в этой отрасли, убрал 20% персонала. Ну, а когда гигант Goldman Sachs принялся выставлять на мороз финансистов, потому что человек обходится дороже, чем ИИ, тут уж более мелкие компании просто с цепи сорвались.
Всего в мире сократили 240 тысяч высококлассных специалистов — возможно, цифра не полна, поскольку, согласно отчету Randstad RiseSmart Global Severance, 96% компаний в мире в 2023-м так или иначе избавлялись от «живого» персонала. То есть на самом деле счет может идти на миллионы. И 92% работодателей говорят, что в 2024-м будут сокращать еще быстрее и больше.
Тот же Google собирается уволить 30 тыс. На новогоднем корпоративе сотрудник спросил у гендира Google Сундара Пичаи: ну вот, вы уволили 12 тыс., и счастливы теперь? Что с моральным духом в компании? Пичаи в ответ сказал, что да, решение было трудное, но необходимое. И что с моральным духом просто так хорошо, как никогда не было. То есть, переводим на общепонятный, сотрудники, боясь, что их попрут, вкалывают за семерых, не берут больничные и клеят на лица картонные улыбки. Но этого Пичаи, конечно, прямо не сказал.
Поводы задуматься о будущей профессии для своего ребёнка, например, есть:
Обученная на данных многолетних наблюдений за 6 млн датчан модель искусственного интеллекта смогла с высокой точностью прогнозировать важные события в жизни людей вплоть до указания даты их смерти. Точность предсказаний можно повысить ещё сильнее, если добавить к данным наблюдений сопровождающие жизнь людей видео, переписку и информацию о социальных связях. Но сначала предстоит решить этическую сторону вопроса.

Совместный проект исследователей из Университета Копенгагена (Дания) и Северо-Восточного университета в Бостоне (США) показал, что модель машинного обучения типа «трансформер» (transformer) может быть использована для прогнозирования событий в жизни людей.
Модель трансформер создавалась для обработки последовательностей, таких как текст на естественном языке. От других моделей она отличается более масштабным распараллеливанием задач и не требует соблюдения последовательности в анализе данных. Оказалось, что модель удачно подошла для упорядочивания данных и прогнозирования того, что произойдёт в жизни человека и даже смогла указать приблизительное время смерти. Более того, по точности предсказания поведения личности и времени её смерти новая модель превзошла все ранее созданные аналогичные модели.
Статья «Использование последовательности жизненных событий для прогнозирования человеческих жизней» с описанием созданной в эксперименте модели life2vec на основе данных о 6 млн датчан опубликована в журнале Nature Computational Science. Также она свободно доступна на сайте arХiv.org.
«Мы использовали модель для решения фундаментального вопроса: в какой степени мы можем предсказать события в вашем будущем, основываясь на условиях и событиях в вашем прошлом? С научной точки зрения нас интересует не столько само предсказание, сколько те нюансы в информации, которые позволяют модели давать такие точные ответы», — рассказал Сун Леманн (Sune Lehmann), профессор DTU и первый автор статьи.
Авторы работы использовали последовательность событий в жизни людей подобно тому, как строится из слов предложение. Собственно по этой причине для работы была взята модель трансформер, которая создавалась для анализа текстов. В то же время модель работает с учётом известных социальных закономерностей и наблюдений, на основании которых не только ИИ, но и обычные специалисты также могут сделать выводы о дальнейшем жизненном пути человека по месту его проживания, профессии, социальному статусу, полу, привычкам и по медицинской карте (посещениям врачей).
Данные для обучения модели life2vec взяты из информации о рынке труда и данных Национального регистра пациентов (LPR) и Статистического управления Дании. Набор данных включает в себя информацию обо всех 6 млн датчан и содержит сведения о доходах, заработной плате, стипендии, типе работы, отрасли, социальных пособиях и т.д. Набор медицинских данных включает записи о посещениях медицинских работников или больниц, диагнозе, типе пациента и насколько внезапным или срочным было обращение за медицинской помощью. Данные для модели представлены за период с 2008 по 2020 годы, хотя по ограниченной возрастной группе данные брались за период с 2008 по 2016 годы.
Авторы исследования отмечают, что для полномасштабного использования подобной модели в социальных целях необходимо ответить на множество этических вопросов. В то же время они подчёркивают, что широко распространённые механизмы по оценке целевой аудитории для рекламы позволяют узнавать о людях не намного меньше и это уже используется. Так что не будет ничего плохого, если модель сможет предсказать какое-нибудь негативное событие в жизни конкретного человека, которое можно будет избежать тем или иным образом. Дату смерти, кстати, модель предсказывает с точностью в пределах четырёх лет.
По словам исследователей, следующим шагом стало бы включение в модель других типов информации, таких как текст и изображения или информация о наших социальных связях. Такое использование данных открывает совершенно новое взаимодействие между социальными науками и наукой о здоровье.
Мир Гу возвращается! Посмотрите трейлер World of Goo 2 от 2D Boy и Tomorrow Corporation. Спустя 15 лет после выхода оригинальной игры, World of Goo 2 возвращается в 2024 году с новыми головоломками и еще большим количеством слизи.
Нашей целью является обеспечение наших зрителей еще более захватывающим и увлекательным визуальным опытом. Для достижения этой цели мы внесли несколько улучшений в контент, включая увеличение разрешения видео до очень высоких разрешений, обеспечивающих высокую четкость и детализацию изображений.
Група вк https://vk.com/hdvideorecovery


Я люблю НФ, она же SciFi, особенно хороша твёрдая научная фантастика. На фантастике я, можно сказать, вырос. Как и мои друзья.
А тут у меня знакомая ходила что-то бурчала два или три года подряд, что пишет книгу. Ну пишет и пишет. Дописала, и оказалось, тоже SciFi. Тоже "твердая НФ", но с некоторыми допущениями.
Ну я почитал, попросили же. Думал ещё, как помягче сказать, если окажется посредственно.

И знаете, был удивлен. Чем-то похоже на книги С. Лема в плане философии. Местами Брэдбери напоминает художественностью. Автор вдохновлялась и Бегущим по лезвию, и Призраком в доспехах, но произведение в итоге совсем другое, хотя по духу и мрачности может и близко.
Я даже помог немного с корректурой потом. А еще я не подозревал, что даже самиздат довести до публикации даже для fiction-книги это такая большая работа.

Спойлерить ничего не буду, просто скажу, что мне книга очень понравилась. Я никогда ничего такого не читал, книга многослойная и раскрывается как луковица. Во многих диалогах я узнаю наши философские разговоры за последние лет 5-7.
Хорошо, когда НФ роман заставляет задуматься об одном или нескольких аспектах функционирования нашего общества или жизни. Меняешь что-то одно, наблюдаешь за результатом, что при этом произойдет с человечеством или обществом. Грубо говоря, хорошие НФ-книги задают вопрос "почему " и "что было бы, если".
Поэтому, даже если такая фантастика иногда не является на 100% твёрдой, она всё равно остается "научной", так как она построена на основе материалистической картины мира (или некоего приближения к ней).

Я понимаю, что при текущем уровне шума очень тяжело докричаться до людей, но единственное о чем я прошу, просто попробуйте прочитать роман (хотя бы первую часть), он вас не оставит равнодушным. Очень интересно было бы увидеть реакцию людей на идеи, изложенные в романе. Точнее это и есть на самом деле конечная цель его написания - заставить людей задуматься. Также поскольку любая хорошая фантастика использует свои "инструменты" в первую очередь, чтобы задавать вопросы к реальным социальным являениям, в книге вы увидите многие аспекты современной геополитики, экономики и технологий доведённые до абсолюта.
Она сама сайт поднимала под это дело, там первую часть можно прочитать (на АТ тоже есть), а дальше уже можно на бусти полную версию скачать, и озвучка там постепенно выкладывается. Ссылки на сайте есть.

Развитие инструментов искусственного интеллекта и больших языковых моделей (LLM), лежащих в их основе, действительно может лишить некоторых людей карьеры. Об этом свидетельствует новое исследование Министерства образования Великобритании.
Оно показало, что в будущем до 30% рабочих мест могут быть автоматизированы с помощью ИИ. Больше всего пострадают профессии в области финансов, юриспруденции, бизнеса, управления и HR.
В зоне риска 20 специальностей:

Авторы исследования также назвали профессии, которые меньше всего пострадают от ИИ. Среди них спортсмены, кровельщики, строители, штукатуры, монтажники и другие специальности, предполагающие физическую работу.

Не секрет, что у Baldur's Gate 3 не было оригинальной русской озвучки. Мы сделали так, что главные персонажи из игры могут говорить на русском языке. Некоторые говорят с небольшим акцентом … а некоторые с заметным акцентом.
Послушайте сами, убедитесь:

Попробовать можно тут - @silero_voice_bot - https://t.me/silero_voice_bot
Руководство как обучить голосовую модель.

Рассуждения о том, что внедрение систем искусственного интеллекта кардинальным образом перекроит рынок труда, можно услышать из уст многих аналитиков, но опубликованные Европейским Центробанком результаты исследования говорят о том, что на текущем этапе данное явление больше влияет на уровень заработных плат, чем на количество рабочих мест.

Агентство Reuters, апеллирующее к результатам исследования ЕЦБ, поясняет, что на данном этапе экспансии технологий искусственного интеллекта рабочие места скорее появляются, а не исчезают, причём вакансии, подразумевающие низкий и средний уровни квалификации специалистов, пока не затронуты негативным влиянием ИИ. Анализировались рынки труда в 16 странах Европы, исследователи рассматривали те сферы занятости, которые затрагиваются распространением систем искусственного интеллекта.
Даже наличие признаков рецессии в экономике, как заявляют авторы исследования, не снижает потребности работодателей в высококвалифицированных сотрудниках. Количество соответствующих вакансий по мере распространения систем ИИ растёт сильнее всего. При этом некоторое негативное влияние на уровень оплаты труда всё же наблюдается, и эксперты считают, что оно будет усиливаться. Разумеется, по мере экспансии искусственного интеллекта будут наблюдаться и другие явления, но на данном этапе особых поводов для беспокойства нет.
Распространение других компьютерных новшеств, как отмечают аналитики, ранее сопровождалось снижением доли сотрудников со средним уровнем квалификации, но в случае с ранним этапом экспансии ИИ этого не наблюдается.
Пентагон расширяет использование возможности ИИ от космического наблюдения до наземных операций.

ИИ используется для управления компактными беспилотниками в миссиях спецподразделений, отслеживания физической подготовки солдат, предсказания потребности в техобслуживании военных самолетов и мониторинга космических соперников.
По данным The New York Times , несколько стран лоббируют в ООН принятие обязательной резолюции, ограничивающей использование искусственных «дронов-убийц», но несколько крупных стран сопротивляются этому шагу и предпочитают необязывающую резолюцию.
По сообщению Reuters , заместитель министра обороны США Кэтлин Хикс заявила в августе, что такие технологии, как дроны, управляемые искусственным интеллектом, помогут противодействовать численному преимуществу Китая в людях и вооружениях. «Мы будем противопоставлять НОАК свою собственную массу, но нашу будет труднее спрогнозировать, труднее поразить, труднее победить».
К 2026 году Пентагон планирует развернуть тысячи доступных автономных транспортных средств с ИИ, чтобы ускорить переход к использованию малых, интеллектуальных и недорогих платформ. Проект "Replicator" направлен на стимулирование инноваций в военной сфере. Несмотря на неопределенность финансирования и отсутствие конкретики в деталях, ожидается, что он будет способствовать принятию важных решений о готовности ИИ технологий к внедрению, в том числе в вооруженных системах.
Среди экспертов нет сомнений в том, что США в ближайшие годы освоят полностью автономное летальное оружие. Предполагается, что человек всегда будет контролировать такое оружие, хотя на практике роль человека может свестись к наблюдению.
В космической сфере, последнем фронте военной конкуренции, ИИ-инструменты также отслеживают потенциальные угрозы. Примером может служить операционный прототип Machina , который автономно контролирует более 40,000 объектов в космосе.
В других областях, ИИ помогает ВВС США поддерживать свой авиапарк в рабочем состоянии, предсказывая потребности в обслуживании самолетов. Среди здоровьесберегающих инициатив — проект по отслеживанию физической подготовки всего Третьего пехотного дивизиона армии США.
В рамках концепции "всеобъемлющего командования и контроля" Пентагон стремится ускорить соединение боевых единиц, автоматизируя обработку данных. Однако этот процесс затруднен бюрократией и необходимостью привлечения квалифицированных кадров.
Наконец, важно отметить, что независимо от степени автономии систем, всегда будет присутствовать ответственный оператор, осознающий ограничения системы и обученный работать с ней. Это гарантирует, что использование автономного оружия будет происходить с учетом всех возможных рисков.
Способен ли ИИ подорвать научный прогресс?

Исследование Оксфордского университета поднимает тревожный вопрос об использовании искусственного интеллекта в научных исследованиях, предупреждая о риске галлюцинаций ИИ, которые могут привести к распространению ложной или предвзятой информации. Исследователи предлагают ограничить использование больших языковых моделей (LLM), таких как ChatGPT или Bard, для уменьшения их влияния на результаты научных работ.
Предложение учёных основано на наблюдении, что ИИ иногда генерирует убедительные, но полностью вымышленные данные. Такое явление особенно актуально, учитывая, что LLM-модели обучаются на онлайн-источниках, которые не всегда отражают достоверную информацию. Такая ситуация может привести к тому, что ИИ предоставит искаженные факты или вымыслы в ответ на запросы.
Авторы работы подчеркивают, что пользователи склонны воспринимать ответы, сгенерированные моделями, как достоверные, поскольку технология способна имитировать человеческую речь. Однако это создает риск того, что полностью недостоверная информация будет воспринята как правдивая, даже если она не основана на конкретных фактах.
Исследователи предлагают использовать LLM-модели в качестве «переводчиков с нулевым выстрелом», что подразумевает применение таких систем не для получения фактических данных, а для организации или систематизации информации. Авторы призывают к более осознанному подходу к возможностям ИИ, и к рассмотрению последствий использования ИИ в науке.
Предостережение актуально на фоне возрастающего интереса к применению ИИ в научных исследованиях, как показывает, например, использование ИИ в открытии экзопланет. Однако существует ряд проблем, таких как «проблема черного ящика», когда неясно, почему модель ИИ приходит к определенным выводам, что вызывает дополнительные вопросы о надежности и проверяемости данных, предоставляемых ИИ.
В следующем году мир смартфонов переживет настоящую революцию: даже недорогие модели будут оснащены встроенным искусственным интеллектом.

Это станет возможным благодаря новому мобильному процессору Snapdragon 7 Gen 3, который обещает значительно улучшить возможности среднего класса устройств.
Snapdragon 7 Gen 3, преемник Snapdragon 7 Gen 2, уже привлек внимание таких производителей, как Xiaomi, Realme, Oppo и Motorola. Honor и Vivo также планируют использовать новый чип, в то время как Samsung, вероятно, останется верной своим Exynos чипам для среднего класса.
Основной акцент в новом SoC сделан на ИИ. Он обещает до 60% более быструю работу искусственного интеллекта на каждый потраченный ватт энергии.
Это означает более плавную работу таких функций, как Sensing Hub от Qualcomm, который может определять наличие пользователя поблизости и реагировать на голосовые команды. Однако наибольшее внимание привлекают улучшения в области фотографии, где ИИ уже активно используется для вычислительной фотографии.
Улучшенный ИИ обещает значительно лучший автофокус и управление цветом, что, хотя и не звучит громко, будет ощутимо в повседневном использовании.
Кроме того, новый чипсет обещает улучшенную энергоэффективность, что положительно скажется на времени работы от батареи, а также улучшенные возможности 5G и камеры.
OpenAI лихорадит после того, как совет директоров в минувшую пятницу уволил главу компании Сэма Альтмана (Sam Altman): сегодня более 600 сотрудников OpenAI подписали открытое письмо, в котором пригрозили покинуть компанию, если совет директоров не подаст в отставку и не восстановит в должности Сэма Альтмана вместе с соучредителем и бывшим президентом Грегом Брокманом (Greg Brockman).

«Процесс, посредством которого вы уволили Сэма Альтмана и исключили Грега Брокмана из совета директоров, поставил под угрозу всю работу и подорвал нашу миссию и компанию. Ваше поведение ясно показало, что у вас нет полномочий контролировать OpenAI», — сказано в письме.
Интересно, что среди подписантов есть Илья Суцкевер (Ilya Sutskever), главный научный сотрудник OpenAI и член правления, которого... обвиняют в координации «переворота» против Альтмана.
Незадолго до публикации письма Суцкевер написал в Twitter (X): «Я глубоко сожалею о своем участии в действиях правления. Я никогда не намеревался причинить вред OpenAI. Мне нравится все, что мы создали вместе, и я сделаю все возможное, чтобы воссоединить компанию».
Сегодня стало известно, что преемницу Альтмана на посту главы OpenAI, Киру Мурати (Kira Murati), отстранили от должности временной исполняющей обязанности гендиректора, на ее место назначили Эммета Шира (Emmett Shear), бывшего генерального директора Twitch. Почти одновременно глава Microsoft Сатья Наделла (Satya Nadella) заявил, что Альтман и Брокман устроились в Microsoft, где возглавят новое передовое исследовательское подразделение в области искусственного интеллекта.
В своем письме сотрудники OpenAI угрожают присоединиться к Альтману в Microsoft. «Microsoft заверила нас, что в новой дочерней компании есть должности для всех сотрудников OpenAI, если мы решим присоединиться», — пишут они.
Точная причина увольнения Альтмана остается неясной даже для многих внутри компании. «Несмотря на многочисленные просьбы предоставить конкретные факты для ваших обвинений, вы так и не предоставили никаких письменных доказательств», — сказано в письме, адресованном совету директоров.
В письме обрисована вполне реальная перспектива того, что OpenAI потеряет почти весь свой персонал, а Microsoft, по сути, приобретет всю компанию. В OpenAI работает около 770 сотрудников.
Он обыграет вас и в шахматы, и в покер.
Исследователи создали первый алгоритм искусственного интеллекта общего назначения, который может освоить самые разные игры, пишет LiveScience. Он получил название Student of Game («Ученик игр»).
Игровые алгоритмы обычно разрабатываются для освоения либо игр, где у каждого игрока есть вся информация (го или шахматы); либо игр, в которых некоторая информация скрыта от других игроков (покер). Это связано с тем, что процесс обучения алгоритмов различается для двух типов игр: первый использует поиск и обучение, а второй применяет теоретико-игровые рассуждения.
Новый алгоритм обходит это ограничение, сочетая управляемый поиск, самостоятельное обучение и теоретико-игровые рассуждения.
Чтобы достичь этого, команда обучила ИИ, используя алгоритм GT-CFR. Это вариация алгоритма, где искусственный интеллект учится, многократно играя против самого себя.

Ученые объединили методы, использованные для создания различных алгоритмов игры — от AlphaZero, более продвинутой версии AlphaGo, до DeepStack, первой компьютерной программы, которая смогла победить профессионалов в «Техасском Холдеме» (разновидность покера).
В категории информационно-идеальных игр (где участникам доступна вся информация) Student of Games проявил такую же производительность, как у людей-профессионалов. Однако в противостоянии другим специализированным алгоритмам, например, AlphaZero, он оказался слабее.
Что касается игр, где часть информации сокрыта, новый ИИ победил алгоритм «Техасского Холдема» — Slumbot. По утверждению исследователей, это лучший покерный агент. Student of Games также обыграл неизвестного передового агента в игре «Скотленд-Ярд».
Однако Student of Games не будет работать в сложных играх, где игрокам доступно гораздо больше скрытой информации, чем в покере. Например, с играми Starcraft или Stratego, где каждый игрок может иметь большой набор потенциальной личной информации, искусственный интеллект не справился бы.
В будущем исследователи планируют снизить высокие затраты и вычислительную мощность, необходимые для запуска Student of Games, и добиться более высокой производительности.
Исследование показывает, что можно разработать методику, способную работать как для информационно-идеальных, так и для информационно-неполных игр вместо использования специализированных алгоритмов. Кроме того, важным шагом стало создание нового формального подхода, который позволяет по-настоящему обобщенно построить алгоритм поиска.
Игры уже давно служат эталоном прогресса в области искусственного интеллекта. Например, в 2016 году AlphaGo от DeepMind победила профессионального игрока в го. В следующем году система Libratus обыграла лучших в мире игроков в покер в 20-дневном турнире по «Техасскому Холдему». Deep Blue, одолевшая шахматного гроссмейстера и победившая AlphaGo доказала свою силу в настольных играх, где главное умение — анализировать возможные ходы и выбирать лучшую тактику. Однако не так давно искусственный интеллект проявил себя в реальном физическом спорте — в скоростных гонках на дронах.
Исследователи компании Google DeepMind разработали модель искусственного интеллекта GraphCast и обучили её предсказывать погоду. Результат оказался лучше ожидаемого: она обошла существующее профессиональное ПО по точности прогноза, скорости и экономичности работы.

Соперником GraphCast стал «золотой стандарт» отрасли — система, используемая Европейским центром среднесрочных прогнозов, под названием HRES. В результате GraphCast точнее предсказывал погоду в 90% случаев на основе 1380 параметров отслеживания. Например, ИИ предсказал образование урагана Ли на острове Лонг-Айленд за 10 дней до его появления.
Традиционное ПО предсказывает погоду с помощью численного прогнозирования (NWP). Оно основано на тщательно подобранных уравнениях, которые затем преобразуются в программный код и выполняются на суперкомпьютерах. GraphCast использует другой подход: ИИ оперирует данными вместо уравнений и обучается на основе исторических сведений о погоде за несколько десятилетий. Так, ИИ изучает причинно-следственные связи и может «заглянуть» в будущее на основе выявленных закономерностей. Этот подход гораздо экономичнее использования суперкомпьютеров и, как оказалось, заметно точнее.

Однако без данных NWP ИИ не смог бы обучиться настолько качественно, поэтому GraphCast во многом обязан своей точностью традиционному ПО. Вдобавок, помимо обычной погоды, ИИ может предсказывать природные катаклизмы задолго до их появления, что поможет выиграть время и эвакуировать людей из зон риска заранее. В этом контексте примечательна скорость работы GraphCast: 10-дневный прогноз составляется менее чем за минуту на компьютере Google TPU v4. HRES справляется с этой задачей за несколько часов и требует гораздо больше вычислительной мощности.
Также примечательно, что разработчики опубликовали исходный код модели в открытом доступе, что впоследствии может помочь синоптикам разработать гораздо более точные системы. А сам Европейский центр среднесрочных прогнозов уже проводит эксперимент по внедрению GraphCast. Посмотреть созданный ИИ прогноз погоды в масштабах регионов Земли можно на сайте центра.
Билл Гейтс, соучредитель корпорации Microsoft, поделился в своем блоге прогнозами относительно будущего искусственного интеллекта и его роли в нашей повседневной жизни. Гейтс считает, что в ближайшие пять лет ИИ радикально изменит способы использования компьютеров и мобильных устройств.

По словам Гейтса, скоро не будет необходимости использовать отдельные приложения для разных задач. Вместо этого мы сможем обращаться к своим устройствам на обычном языке, а они будут обрабатывать наши запросы. Это станет возможным благодаря разработке персональных помощников на основе ИИ, которые будут значительно превосходить сегодняшние технологии.
Гейтс называет такие программы "агентами". По его прогнозам, эти агенты не только изменят способ взаимодействия людей с компьютерами, но и радикально преобразуют индустрию программного обеспечения. Это будет самая значительная революция в компьютерной науке со времен перехода от ввода команд на компьютерном терминале к использованию графических интерфейсов.
Гейтс также обсуждает влияние ИИ на здравоохранение, образование, производительность, развлечения и другие сферы нашей повседневной жизни. Например, в здравоохранении агенты могут оказывать помощь в проведении базовой сортировочной диагностики, давать рекомендации по лечению и помогать медицинским работникам в принятии решений. В сфере образования агенты дополняют работу преподавателей, персонализируя обучение учащихся и освобождая преподавателей от рутинных задач. В сфере производительности агенты помогают решать различные задачи, например, составлять бизнес-планы или организовывать встречи. В сфере развлечений и покупок агенты не только дают рекомендации, но и помогают их выполнять. Гейтс рассматривает ИИ как неотъемлемую часть всех аспектов нашего существования.