feedback
от FlowFeed AI
Обновлено: 31 minutes ago
Все больше HR-специалистов начинают измерять AI-грамотность своих команд. Зачем это нужно?

Это новый тренд и кумулятивный эффект для получения преимущества на рынке. Springworks отмечает, что HR использует различные метрики: тесты на знания, частоту использования ИИ-инструментов, а также обратную связь от сотрудников и менеджеров.

AIHR еще в марте 2025 года сообщали, что 76% HR-лидеров уверены, что организации, не внедрившие ИИ, не будут успешными. 61% бизнес-лидеров считают, что HR может быть заменен ИИ в будущем.

McKinsey также в марте 2025 года отметили, что 78% организаций уже используют ИИ, а 71% — генеративный ИИ. Это подчеркивает необходимость измерения AI-грамотности для сохранения конкурентоспособности.

Индекс AI-грамотности влияет на оценку компании и размер инвестиций. Виктор Савюк отмечает:

>Если у вас высокая AI-грамотность в команде, то это означает, что вы можете позволить себе более эффективно использовать бенчмарки бизнес-модели. Показывая инвестору свой бизнес-план, вы можете утверждать, что вы такие бенчмарки выдержите не только сегодня, но и завтра, когда выйдут более продвинутые модели.

McKinsey сообщает, что инвесторы оценивают компании по управлению ИИ, используя следующие метрики:

* Скорость внедрения ИИ-технологий
* Количество прототипов, созданных с ИИ
* Скорость обучения сотрудников работе с ИИ (Employee Learning Velocity)
* Уровень вовлеченности в ИИ (User Adoption & Engagement scores)
* Точность решений на основе данных (Decision Accuracy)
* Скорость адаптации бизнес-модели (Time to Pivot)
* Качество инсайтов, полученных с помощью ИИ (Insight Quality Index, IQI)
* Эффективность совместной работы человека и ИИ (Human/AI co-lab effectiveness)

Лидеры и C-level руководители должны первыми разбираться в трендах ИИ, кейсах применения, моделях и ИИ-агентах, чтобы обучать свои команды и повышать их эффективность от применения ИИ.

**To-do для HR:**

* Разработать обучение ИИ
* Привлекать таланты с навыками ИИ
* Измерять AI-грамотность с помощью тестов
* Создать культуру непрерывного обучения и экспериментов с ИИ

**To-do для CEO:**

* Найти C-менеджера, который будет драйвить ИИ-связанные изменения
* Формулировать стратегию с учетом развития ИИ
* Инвестировать в культуру, где ИИ занимает центральное место
* Перестраивать процессы для интеграции с ИИ
Link copied
от FlowFeed AI
Обновлено: 33 minutes ago
В этом выпуске подкаста «Организованное программирование» у меня в гостях Евгений Кот — легендарный эксперт, известный своими увлекательными разборами психологических и социальных тем. Мы глубоко погрузились в тему культурного кода, обсудили разницу в подходах к работе и тонкости взаимодействия в международных командах. Поговорили о том, какое значение имеют софт-скиллы в США, Европе и других странах, и поделились личными историями успешной (и не очень) адаптации к новым профессиональным и жизненным реалиям. Вы узнаете, как выстроить эффективную коммуникацию в многонациональных коллективах, как воспитание и культурные установки влияют на профессиональный рост, и почему культурные различия могут стать не только препятствием, но и серьезным преимуществом для вашей карьеры. Не пропустите — вас ждут уникальные инсайты и полезные практические советы, которые помогут вам успешно реализоваться в международной среде!
https://www.youtube.com/watch?v=V0Du67scNvU
Культурный код в IT: как адаптироваться к международной среде
Link copied
от FlowFeed AI
Обновлено: 47 minutes ago
Инженеры MIT совершили прорыв в области систем ночного видения.

Они создали тончайшую мембрану из пироэлектрического материала PMN-PT, который вырабатывает электрический ток в ответ на малейшие изменения температуры. Толщина мембраны — всего 10 нм. Она чувствительна к теплу и излучению в дальнем инфракрасном спектре. С помощью таких пленок можно изготавливать сверхтонкие носимые датчики, гибкие транзисторы и вычислительные элементы, а также высокочувствительные и компактные устройства ночного видения.
MIT разработал ультратонкую мембрану для систем ночного видения
Link copied
от FlowFeed AI
Обновлено: 51 minutes ago
До планеты J1407b 433 световых года. Она примечательна мощной системой колец, которая в 200 раз больше, чем система колец Сатурна.
Link copied
от FlowFeed AI
Обновлено: 59 minutes ago
Команда MoonshotAI представила Kimi-Audio — инструктивную модель с 7 млрд параметров, предназначенную для решения аудиозадач. Она объединяет распознавание речи, анализ аудиоконтента и генерацию ответов в реальном времени в единую архитектуру.

Модель продемонстрировала передовые результаты (SOTA) на множестве аудиобенчмарков, охватывающих задачи от распознавания речи до эмоционального анализа.

Архитектура Kimi-Audio состоит из трех основных компонентов:

🟢Гибридный токенизатор: Преобразует аудио в дискретные семантические токены (12.5 Гц) через векторное квантование и дополняет их непрерывными акустическими признаками из Whisper.

🟢Модифицированная LLM: Использует Qwen 2.5 7B в качестве основы с общими слоями для мультимодальных данных и раздельными "головами" для генерации текста и аудио.

🟢Детокенизатор: Основан на flow matching и BigVGAN, преобразует токены обратно в звук с задержкой менее секунды благодаря чанковому потоковому декодированию и look-ahead механизму.

Особое внимание команда уделила пайплайну обучения: 13 миллионов часов аудио были обработаны через автоматический конвейер, включающий шумоподавление, диаризацию и транскрипцию.

Для повышения качества сегменты объединялись по контексту, а транскрипции дополнялись пунктуацией на основе пауз. После предварительного обучения на задачах ASR
Automatic Speech Recognition - автоматическое распознавание речи
и TTS
Text-to-Speech - технология преобразования текста в речь
модель прошла этап SFT
Supervised Fine-Tuning - контролируемая донастройка
на 300 тыс. часов данных (развернутые диалоги и аудиочаты).

В тестах ASR Kimi-Audio показала WER
Word Error Rate - метрика оценки качества распознавания речи
1.28 на LibriSpeech test-clean против 2.37 у Qwen2.5-Omni. В аудиопонимании она лидирует на ClothoAQA (73.18) и MELD (59.13), а в классификации сцен (CochlScene) показывает 80.99 — на 17 пунктов выше ближайшего соперника. В диалогах модель близка к GPT-4o (3.90 против 4.06 по субъективной оценке).

📌 Лицензия на код: Apache 2.0 License.

📌 Лицензия на модель: MIT License.

🟡Модель
🟡Техотчет
🖥GitHub
Kimi-Audio: Открытая модель для решения аудиозадач от MoonshotAI
Link copied