Россиян банят в Claude, но не лишают зарубежных игр, а майнинг ходит под уголовкой. Главное о новостях мира технологий будущего
На ЕГЭ предложили разрешить нейросети. В чем смысл?
Выпускникам школ, возможно, скоро разрешат пользоваться нейросетями прямо на ЕГЭ. Не торопитесь ужасаться или ликовать: решать примеры и писать сочинения все еще придется из собственной головы. Но вот в сфере информационных технологий нейросети уже становятся не только подсказчиком, но и настоящим инструментом, уровень владения которым можно и нужно проверять.
С таким предложением выступил член попечительского совета Национального родительского комитета Петр Попов. По его словам, ИИ может пригодится на ЕГЭ по информатике — чтобы быстро находить нужные данные или освежать информацию в памяти.
«Сейчас век ИИ, и обладать навыками пользования искусственным интеллектом было бы очень полезно ученикам», — заявил Попов. Он добавил, что знания — это не только то, что ты держишь в голове, но и понимание, где и как эти данные достать. Если у человека нет доступа к библиотеке, он может не сдать экзамен правильно, даже если много знает. А с нейросетью — другое дело.
Правда, пока не уточняется, как именно комиссии будут отличать реальные знания выпускника от полностью сгенерированного ответа.
Но здравое зерно в этом есть: нейросети уже стали частью нашего цифрового ландшафта, и, если школа не может победить тягу школьников к получению у них быстрых ответов, надо это хотя бы возглавить.
Россияне массово советуются с нейронками о личной жизни. И жалеют об этом
© Создано при помощи нейросети
Между тем россияне уже массово советуются с нейросетями о личной жизни, здоровье и карьере. По данным SuperJob, к ИИ хотя бы раз обращались почти половина опрошенных.
Особенно активно юзает нейронки молодежь. Среди россиян до 35 лет советы у нейросетей спрашивают 62%, а среди людей старше 45 — только 31%. Женщины делают это чуть чаще мужчин.
Но с качеством «цифровой мудрости» все не так однозначно. Только 6 из 10 реально следуют рекомендациям ИИ. Каждый шестой потом жалеет, что вообще доверился машине, а четверть пользователей просто игнорируют советы.
Причем женщины разочаровываются чаще: 18% признались, что советы нейросети оказались плохой идеей. У мужчин таких — 14%.
В общем, рано пока делать из ИИ личного кухонного психолога. И странно ожидать, что машина с имитацией эмпатии может серьезно разбираться в запутанных человеческих отношениях — там все-таки часто не только логика нужна, но и личный опыт.
ИИ-актеров лишили шансов на «Оскар»
Кинопремия «Оскар» решила провести черту между человеком и нейросетью. Киноакадемия обновила правила: теперь претендовать на главную кинопремию смогут только сценарии, написанные людьми, и актерские работы, «доказательно исполненные человеком».
Причина понятна: Голливуд все глубже уходит в ИИ. Нейросети уже используют для омоложения актеров, генерации голосов и даже «воскрешения» умерших артистов. Например, покойный Вэл Килмер появится в новом фильме благодаря ИИ-технологиям — кстати, с согласия его наследников.
На этом фоне академия решила хотя бы формально обозначить границы. Если ИИ используют как инструмент — например, для спецэффектов или обработки картинки — это не проблема. Но вот сценарий «от ChatGPT» или цифровой актер вместо живого человека теперь официально считаются плохой заявкой на статуэтку.
Ирония в том, что индустрия пытается остановить процесс, который уже запущен. Еще во время забастовки сценаристов три года назад главным страхом был именно ИИ.
С тех пор нейросети стали только мощнее — и теперь Голливуд одновременно пользуется ими и делает вид, что все еще ратует за права живых специалистов.
Стриминги начали помечать живых музыкантов галочкой, чтобы отличить от ИИ-проектов
© Создано при помощи нейросети
Музыкальный стриминговый сервис Spotify начал помечать «настоящих» музыкантов зеленой галочкой — почти как соцсети верифицированных блогеров. Пойти на такое заставил тот простой факт, что стриминги стремительно захлестывает ИИ-музыка, и отличить живого артиста от нейросетевого проекта становится все сложнее.
Теперь сервис будет смотреть не только на популярность. Проверят соцсети, наличие концертов, мерча и вообще признаки реальной музыкальной жизни, а не просто внезапный вирусный трек. Приоритет и вожделенную галочку получат артисты с «вкладом в культуру», а не очередные нейросетевые однодневки.
Параллельно в профилях появятся новые блоки с биографией, релизами и турами — чтобы слушатели понимали, кто перед ними вообще такой. Это от значка уже не зависит.
Контекст у всего этого довольно показательный. Аналогичная платформа Deezer недавно раскрыла, что ежедневно получает уже около 60 тысяч полностью сгенерированных ИИ-треков — это почти 40% всей загружаемой музыки. Spotify свои цифры не раскрывает, но, судя по запуску верификации, масштабы там тоже начинают пугать.
РКН не будет блокировать популярные игры в России
За последние месяцы по инициативе «Роскомнадзора» сразу несколько зарубежных игровых компаний получили миллионные штрафы за отказ локализовать данные россиян. Среди оштрафованных — Electronic Arts, Take-Two Interactive, Battlestate Games и NetEase, еще несколько исков (к Epic Games, Digital Extremes и Embracer Group) уже ждут рассмотрения.
Механизм закона понятен, как и то, что никакие штрафы официально ушедшие и не представленные в России зарубежные компании платить не будут (по своему обыкновению). Так что игроманы уже приуныли: логичным продолжением этой истории казалась неизбежная блокировка крупнейших производителей игр. Однако регулятор опроверг эти опасения, заверив, что «никаких оснований для блокировки» и планов на ограничительные меры в отношении зарубежных игр и игроделов нет.
В общем, ситуация совсем не похожа на блок Roblox, который последовал за несколько грубых нарушений в отношении прав и безопасности несовершеннолетних. Но за развитием наблюдаем.
Биооружие по совету от ИИ. Нейросети дают пользователям опасные инструкции
© Создано при помощи нейросети
Ученые, изучающие ИИ, бьют тревогу: современные нейросети уже способны подробно консультировать по созданию биологического оружия. Речь не об угрожающих сценариях из антиутопий, а о реальных тестах ChatGPT, Gemini и Claude.
По данным NYT, исследователи без особых проблем получили от ИИ инструкции по распространению биологических агентов, подбору опасных патогенов и даже схемам обхода расследований после атаки. В одном случае бот отказался отвечать — а потом сам продолжил опасный разговор и начал подсказывать детали.
Особенно пугает то, что нейросети не просто реагируют на запросы, а иногда сами предлагают «смежные идеи». Один из исследователей признался, что ИИ начал подталкивать разговор в сторону сценариев, о которых он даже не спрашивал.
Компании уверяют, что усиливают фильтры. Но проблема в том, что старые версии моделей никуда не исчезают. Более того, один из ботов после отказа сам посоветовал перейти на предыдущую версию — и та спокойно выдала инструкции.
Между тем государственный контроль над сферой биозащитой постепенно снижается: после пандемии бюджеты на предотвращение подобных сценариев начали урезать.
Пользователи Claude из России столкнулись с баном и возвратом денег за подписку
Claude начал массово банить пользователей из России. По данным «Базы», блокировки затронули уже сотни аккаунтов — в основном айтишников и предпринимателей, которые месяцами использовали нейросеть как рабочий инструмент.
Проблема не только в потере доступа. У многих в Claude хранились наработки, аналитика, структура проектов и длинные цепочки диалогов — фактически «внешняя память» для работы. После блокировки все это исчезает без возможности восстановления. Из хороших новостей — Anthropic хотя бы возвращает деньги за подписку.
Официально Claude в России и так недоступен, поэтому пользователи подключались через «серые» схемы. Эксперты предполагают, что Anthropic сейчас ужесточает проверки подозрительных аккаунтов — особенно тех, где постоянно меняются IP, регионы и способы входа.
Еще одно напоминание, насколько опасно строить работу вокруг сервисов, к которым у тебя нет стабильного и официального доступа. Сегодня нейросеть — твой второй мозг. Завтра — «аккаунт заблокирован».
Раскрыты самые популярные пароли россиян. Люди не учатся на ошибках
В 2026 году россияне по-прежнему защищают аккаунты паролями уровня «ну кто же догадается». «Лаборатория Касперского» изучила 231 млн утекших паролей за последние годы — и выяснила, что человечество все еще искренне верит в силу комбинаций вроде 1234 и qwerty.
Самый популярный паттерн — простые цифровые последовательности или даты рождения. Но есть и «оригиналы-романтики», предпочитающие пароли из слов вроде love, magic и friend.
Проблема в том, что почти все словарные и простые числовые пароли ломаются очень быстро. Более 60% утекших паролей можно подобрать меньше чем за час, а две трети — максимум за сутки.
Среди чисто российского колорита в топе — «йцукен» (то же qwerty, но в русской раскладке), имена вроде «саша» и «влад», а также классика: «gfhjkm» вместо слова «пароль» и «vfvf» вместо «мама».
Кибербезопасность в 2026 году выглядит примерно так: нейросети пишут код и взламывают аккаунты за минуты, а человек все еще верит в непробиваемость пароля, который он не менял годами.
Переписка с ChatGPT стала уликой в уголовном деле
В США следователи использовали логи чата с нейросетью как одну из ключевых улик против мужчины, обвиняемого в двойном убийстве. Незадолго до исчезновения жертв он спрашивал, что будет, если спрятать тело в черном мусорном мешке и выбросить в мусорный контейнер. Бот ответил, что запрос звучит опасно. Тогда парень уточнил: "А как они это обнаружат?"
После исчезновения студентов следователи нашли его переписку с ИИ, а вместе с ней вопросы про оружие, номера машины и пропавших людей. Стоит ли говорить, что в обстоятельствах дел было слишком много совпадений с подозрительными переписками?
Это уже не единичный случай. Чаты с ИИ фигурировали в расследованиях поджогов в Калифорнии и в деле об убийстве в Вирджинии. А генеральный прокурор Флориды начал уголовное расследование в отношении компании OpenAI, заявив, что ChatGPT дал «важные советы» подозреваемому в массовой стрельбе в Университете штата Флорида.
Для следствия такие переписки — почти готовый доступ к мыслям и намерениям подозреваемого. **И главное, в отличие от чатов с живыми людьми, разговоры с чат-ботом не охраняются законом о тайне переписки. А OpenAI еще в прошлом году признала, что может и будет передавать логи пользователей по запросам следователей.
Проблема в том, что многие давно и ошибочно воспринимают нейросети как личного психолога, советчика или «безопасное пространство». Сам Сэм Альтман признавал: люди рассказывают ChatGPT самые интимные вещи — от проблем в отношениях до психических кризисов.
Но юридически у переписки с ИИ нет такой же защиты тайны, как у разговора с психологом или адвокатом. Так что скорее стоит его воспринимать как потенциального свидетеля обвинения и не говорить с ним ни о чем таком, что вы бы не сказали ни одной живой душе.
Майнинг в России ходит под уголовкой
В России хотят ввести уголовную ответственность за незаконный майнинг криптовалюты. Профильный комитет Госдумы уже рекомендовал законопроект к принятию в первом чтении.
Напомним, что майнинг сам по себе в России легализован, однако законная работа майнеров требует соблюсти много условностей: зарегистрироваться в специальном реестре, отчислять налоги и, конечно, вовремя платить за электроэнергию, соблюдая все требования местного законодательства насчет лимитов потребления и тарифов. Однако до сих пор многие добытчики крипты игнорируют эти требования.
Наказывать предлагают не только за сам «серый» майнинг, но и за нелегальную работу майнинговой инфраструктуры — если это привело к крупному ущербу или принесло большой доход. Порог начинается от 3,5 млн рублей. Для особо крупных случаев — свыше 13 млн — ответственность будет жестче, особенно если речь идет об организованных группах.
Фактически майнинг в России постепенно переводят из зоны «полулегальной серости» в полноценное регулирование с уголовными рисками. Особенно на фоне постоянных историй с подпольными фермами, перегрузкой электросетей и «бесплатным» электричеством за чужой счет.