Open Ai
Празднование Недели Открытого Искусственного Интеллекта: Раскрытие Инноваций Через Сотрудничество и Вклад Разработчиков
Open Source AI Week поставила сотрудничество в центр внимания — не как лозунг, а как рабочий метод, который привел к выпуску реальных инструментов, моделей и уроков. Создатели из исследовательских лабораторий, стартапов и предприятий показали, как открытый код, открытые веса и открытые данные превращаются в практические достижения в области продуктивности и влияния.
| ⚡ Быстрый обзор: | Действия для выполнения |
|---|---|
| Изучите новые открытые RAG-модели на Hugging Face 🤖 | Клонируйте, протестируйте и проведите бенчмарк одного из топ-3 эмбеддеров в вашем стеке на этой неделе. |
| Быстрая тренировка LLM с Launchables 🚀 | Разверните Nanochat на 8‑GPU инстансе и быстро работайте с подсказками. |
| Прототипируйте с открытыми симуляторами робототехники 🦾 | Используйте Isaac Sim + Newton для стресс‑тестирования политик перед реальными испытаниями. |
| Присоединяйтесь к движению на GitHub 🌍 | Создавайте issue, отправляйте PR с документацией или делитесь воспроизводимыми Colab — маленькие шаги масштабируются. |
Победы сообщества на Open Source AI Week: Награды, демо и идеи, которые стоит реализовать
Open Source AI Week четко показала: самые быстрые прорывы происходят, когда сообщества объединяются вокруг практичных, прозрачных инструментов. От основного доклада на PyTorch Conference до сессий в коридорах, все внимание было сосредоточено на отправке кода, публикации весов и упрощении рабочих процессов для разработчиков. Награда PyTorch Contributor Award в честь Джонатана Дектяра признала именно ту инженерную работу за кулисами, которая превращает GPU-ускорение и пакетирование Python в повседневный суперсилу для команд, создающих на PyTorch и CUDA.
Участники также стали свидетелями откровенного разговора с Джереми Говардом из fast.ai, который отметил растущую силу открытых сообществ и поддержал компании, выпускающие высокопроизводительные модели с либеральными лицензиями. Эта энергия нашла отклик в демонстрациях компактной системы NVIDIA DGX Spark — дружелюбного к настольным ПК устройства с серьезными вычислительными возможностями, а также в живых показах робототехники, где роботы-собаки Unitree показали, как симуляция и исследования воплощенного ИИ сближаются.
Для создателей, планирующих следующий этап, эти моменты воплощаются в четкие действия. Скомбинируйте практичный стек LLM с надежным инструментом оценки, используйте эмбеддеры с либеральными лицензиями для улучшения поиска и опирайтесь на дружественные к разработчику инструменты, такие как Jupyter и Google Colab, для быстрой проверки идей. Неделя также задала тон для новых анонсов на NVIDIA GTC в Вашингтоне, продлевая импульс в следующий цикл разработки.
- 🏆 Отмечайте вкладчиков: выделяйте мейнтейнеров и рецензентов, чья работа ускоряет процесс.
- 🧪 Проводите параллельные оценки: сравнивайте эмбеддеры на многоязычных запросах и документов в доменной области.
- 🧰 Стандартизируйте инструменты: опирайтесь на GitHub Actions, датасеты Kaggle и воспроизводимые Colab.
- 🔗 Учитесь быстро: просматривайте ресурсы по пониманию семейств моделей OpenAI и расширениям на основе плагинов.
| Особенность 🌟 | Почему это важно | Что попробовать дальше |
|---|---|---|
| PyTorch Contributor Award 🥇 | Упаковка + надежность релизов → более быстрое принятие и обновления. | Автоматизируйте сборку wheel и CI с помощью GitHub Actions и публикации на PyPI. |
| Демонстрация DGX Spark 💻 | Настольный суперкомпьютер для ИИ → локальная тонкая настройка и быстрая итерация. | Прототипируйте квантизированную модель и профилируйте память с Jupyter. |
| Робототехника Unitree 🐕 | Воплощенный ИИ здесь → sim‑to‑real важен для безопасности и скорости. | Создайте пример политики в Isaac Lab и перенесите в TensorFlow/PyTorch. |
| Инсайты сообщества 🧭 | Открытые веса повышают доверие, воспроизводимость и сотрудничество. | Делитесь конфигурациями, семенами и скриптами оценки в публичном репо. |
Постоянная нить: работа сообщества накапливается. Ожидайте, что этот импульс повлияет на следующий раздел о сверхбыстром серфинге и умном поиске.
Открытые модели в действии: vLLM + Nemotron, умный RAG и многоязычный поиск
Разработчики получили практический опыт работы с мощной комбинацией: поддержкой в vLLM для моделей Nemotron и волной открытых компонентов RAG, опубликованных на Hugging Face. Это сочетание меняет то, как небольшие команды разворачивают промышленный вывод и поиск. Оптимизированный движок vLLM снижает задержки в хвосте и масштабируется на GPU NVIDIA с минимальной инфраструктурой, а новая семья Nemotron — включая компактную модель рассуждений Nemotron Nano 2 — обеспечивает быстрые ответы и настраиваемый “бюджет мышления” для затратных подсказок.
Со стороны поиска восемь моделей Nemotron RAG стали открытыми с коммерческой доступностью. В линейку входят многоязычные и кросс-модальные варианты, такие как Llama‑Embed‑Nemotron‑8B для текстовых эмбеддингов на более чем 1000 языках и Omni‑Embed‑Nemotron‑3B для кросс-модального поиска, объединяющего текст, изображения, аудио и видео. Шесть моделей, готовых к промышленному использованию, охватывают эмбеддинг, повторный ранкинг и извлечение из PDF — основные блоки документального интеллекта, поддержки и корпоративного поиска.
Практический путь открыт для стартапов и одиночных разработчиков: используйте надежный эмбеддер, добавьте повторный ранкинг и внедрите надежный этап парсинга PDF перед поиском. Затем обслуживайте генерацию через vLLM, где модели Nemotron могут быть “горячо” заменены и профилированы. Тестируйте в Google Colab или локальной Jupyter тетрадке, публикуйте сравнения на GitHub для прозрачности. Если целевой стек основан на OpenAI API для базового качества, комбинируйте их с открытыми эмбеддерами для оптимизации затрат и пропускной способности.
- ⚙️ Сервис: vLLM + Nemotron → быстрый, масштабируемый вывод на одном или нескольких GPU.
- 🌐 Поиск: многоязычные эмбеддинги повышают полноту для глобальной аудитории.
- 🧩 Повторный ранкинг: добавьте ранкер для стабилизации качества ответов без излишних размышлений.
- 📄 PDF: структурированное извлечение снижает галлюцинации, привязывая к надежным частям.
| Сценарий использования 🎯 | Рекомендуемые компоненты | Заметки для разработчиков |
|---|---|---|
| Глобальная служба поддержки 🌍 | Llama‑Embed‑Nemotron‑8B + vLLM + векторная БД | Тестируйте запросы на 5 языках; следите за показателем попаданий и улучшениями ранкинга. |
| Медиа-поиск 🎧 | Omni‑Embed‑Nemotron‑3B + кросс-модальные индексы | Индексируйте транскрипты, субтитры и миниатюры для гибридного поиска. |
| Политические вопросы и ответы 🏛️ | Извлечение из PDF + повторный ранкинг + защитные механизмы | Ведите учет цитат; закрепляйте на уровне абзацев с референсами. |
| Документация для разработчиков 📚 | vLLM + кеширование + шаблоны подсказок | Версионируйте подсказки и отслеживайте дрейф в Git с помощью снимков оценки. |
Команды, экспериментирующие с подсказками, нашли полезные рекомендации в таких ресурсах, как техники оптимизации подсказок и практичные объяснения вроде бюджетирования токенов. Для тех, кто взвешивает плюсы и минусы API и самостоятельного хостинга, полезны материалы о Copilot vs. ChatGPT и сравнения моделей для понимания, когда выбирать управляемые решения, а когда – открытые. Для ускорения обучения предлагаем подборку:
Вывод: открытый RAG-стек может быть готов к промышленному использованию очень быстро, особенно когда вывод и поиск считаются первоклассными системами. Далее смотрите, как датасеты и инструменты завершают картину.
Открытые датасеты и инструменты для разработчиков: от физического ИИ к суверенным персонажам
Данные остаются источником силы каждой полезной модели. Open Source AI Week расширила доступ с помощью высококачественных датасетов и практических рабочих процессов, устраняющих трения для разработчиков. Были выпущены последние наборы данных Persona для разработчиков Sovereign AI — полностью синтетические и основанные на реалистичных демографических и культурных распределениях из регионов, таких как США, Япония и Индия — без личной идентифицирующей информации. Такой баланс представительности и конфиденциальности помогает создавать помощников, отражающих реальные лингвистические и социальные нюансы.
Физический ИИ совершил еще один скачок благодаря масштабным открытым релизам: миллионы траекторий роботов и тысяча активов OpenUSD SimReady, сочетающих синтетические и реальные сигналы с платформ вроде Cosmos, Isaac, DRIVE и Metropolis. С миллионами загрузок эти наборы питают sim‑to‑real конвейеры, где роботы тренируются миллионы раз до первого шага в лаборатории. Для разработчиков это значит более надежные политики, меньше дорогостоящих аппаратных сбоев и более быстрые циклы обратной связи.
Рабочие процессы быстро встроились в повседневные инструменты. Быстрое исследование в Google Colab, отслеживание экспериментов в Jupyter и обмен сообществом на GitHub упрощают публикацию воспроизводимых ноутбуков. Для бенчмаркинга и поиска данных помогают соревнования и датасеты Kaggle, испытывающие задачи от OCR до многоязычного поиска. В обсуждениях о говенрансе и устойчивости упоминались руководства Apache Software Foundation и Red Hat, напоминая командам, что отличные технологии нуждаются в продуманных процессах сообщества для долгосрочного успеха.
- 🧪 Быстро прототипируйте: Colab для бесплатных GPU-испытаний, затем переходите к управляемому кластеру.
- 📦 Повторно используйте активы: сцены SimReady + политики Isaac Lab ускоряют воплощенные эксперименты.
- 🗺️ Локализуйте с ответственностью: датасеты персонажей помогают избежать универсальных помощников.
- 🧭 Соблюдайте стандарты: перенимайте практики из сообществ Apache Software Foundation и Red Hat.
| Датасет 📚 | Что он обеспечивает | Быстрый старт |
|---|---|---|
| Коллекции персонажей 🧑🤝🧑 | Агенты и оценки с региональной осведомленностью | Генерируйте тестовые диалоги для ассистентов США/Японии/Индии. |
| Пакет Physical AI 🦿 | Обучение роботов с разнообразной динамикой | Тренируйтесь в Isaac Sim; валидируйте в небольшой лаборатории. |
| Активы OpenUSD 🧱 | Высокоточные сцены симуляции | Создавайте миры; запускайте стресс-тесты политик на ночь. |
| Корпусы Kaggle 🏆 | Базовые и сравнительные конвейеры | Отправляйте базовые варианты, затем улучшайте с многоязычным RAG. |
Полезное чтение завершило неделю, включая вводный курс по работе с ограничениями моделей и взгляд в будущее на чем порадует следующий этап релизов ИИ. Модель остается неизменной: открытые датасеты сокращают путь от идеи до работающего прототипа — и это создает основу для историй стартапов, которые будут далее.
Заметки стартапов: Быстрее запускайте с Open Source AI
Open Source AI Week также выступила в качестве живого кейса стартапов, превращающих открытые компоненты в реальные бизнесы. На Startup Showcase конференции PyTorch Runhouse получил главный приз за упрощение развертывания и оркестрации — сигнал, что опыт разработчика важен не меньше мощности модели. Community Choice Award получил CuraVoice, где медицинские студенты используют платформу симуляции голоса ИИ для практики общения с пациентами с распознаванием речи и TTS на базе NVIDIA Riva, а также интеллектуальные беседы на базе NeMo.
Другие участники Inception показали, как строить на основе открытых экосистем. Snapshot AI продемонстрировал рекурсивный RAG с мультимодальным контекстом, ускоряя инженерные инсайты с помощью CUDA Toolkit. XOR впечатлил команды с уровнем безопасности, предлагая агентов ИИ, автоматически исправляющих уязвимости в цепочках поставок ИИ, с поддержкой GPU-ускоренного машинного обучения для обнаружения закладок и cuVS для быстрого поиска и анализа кода. Эти истории — не исключения, а план для небольших команд, которые серьезно конкурируют с крупными игроками.
Выявляется шаблон по стекам: выбирайте надежный эмбеддер, добавляйте повторный ранкинг, обеспечивайте прочный парсинг документов и следите за наблюдаемостью. Затем профилируйте вывод с vLLM и развертывайте на миксе облачных GPU. Последний этап — доверие: публикуйте четкие оценки и отчеты red team на GitHub, благодарите ваших исходных зависимостей и вносите вклад, когда исправление помогает сотням downstream пользователей. Так растут устойчивые открытые экосистемы.
- 🧱 Комбинируйте открытые уровни: эмбеддеры + ранкеры + векторные БД + кеширование.
- 🩺 Цените доменные знания: CuraVoice доказывает, что вертикальная специализация побеждает универсальность.
- 🛡️ Встраивайте безопасность: агентские рабочие процессы XOR снижают риски и рутинную работу.
- 📈 Контролируйте стоимость: изучайте стратегии ценообразования и ограничения по скорости для правильного подбора инфраструктуры.
| Стартап 🚀 | Открытый стек | Урок для команд |
|---|---|---|
| Runhouse 🛠️ | PyTorch + CUDA Python + оркестрация | Удобство разработки ускоряет процесс; инвестируйте с ранних стадий. |
| CuraVoice 🗣️ | Riva + NeMo + датасеты медицинских диалогов | Глубина вертикали выигрывает у широкой универсальности для принятия. |
| Snapshot AI 🔎 | Рекурсивный RAG + CUDA Toolkit | Мультимодальный контекст = меньше встреч, быстрее ответы. |
| XOR 🛡️ | cuVS + агентское исправление кода | Подход «безопасность по дизайну» строит доверие предприятий. |
Для основателей, изучающих рынок, глубокие обзоры, такие как обзоры ведущих AI-компаний и обзор экосистем моделей, дают контекст для продуктовых ставок. Между тем, ресурсы для разработчиков, например, практические советы по площадке, помогают изучать возможности быстро и без сложных настроек. Сквозной принцип прост: открытые компоненты снижают накладные расходы, а сэкономленное время становится ценностью для пользователей.
Исследования, робототехника и следующая волна: открытые веса, физический тест Тьюринга и спидран LLM
Открытые веса — это не просто философская позиция; это ускоритель исследований. Недавнее исследование CSET подробно описало, как доступ к весам расширяет возможности практиков: дообучение, продолжение предтренировки на доменных данных, сжатие моделей для edge-устройств и проверка интерпретируемости. Это также усиливает воспроизводимость — команды могут запускать эксперименты локально, делиться контрольными точками и повторно запускать базовые линии. Культурное влияние видно невооруженным глазом: исследователи и инженеры публикуют данные, код и веса вместе, создавая позитивный цикл совместного прогресса.
В сфере робототехники появился важный этап с определением Физического теста Тьюринга: может ли робот выполнять реальную задачу настолько плавно, что человек не сможет отличить, кто это сделал — человек или машина? Прогресс зависит от огромных разнообразных данных и надежной симуляции. Вот почему открытые фреймворки важны: Isaac Sim и Isaac Lab позволяют роботам тренироваться миллионы раз в разных средах, а открытый движок Newton добавляет дифференцируемую физику для тонкой динамики, такой как баланс и контакт. Эти элементы уменьшают разрыв между симуляцией и реальностью, делая полевые испытания безопаснее и быстрее.
В это же время образование с открытыми LLM получило импульс от Nanochat — прозрачной минималистичной реализации, которая запускает весь конвейер — от токенизации до чат-интерфейса — примерно в 8,000 строках кода. NVIDIA Launchables упростили развертывание на GPU типа H100 и L40S одним кликом, автоматически определяя размер инстанса. Ранние подписчики получили бесплатные вычисления, а сообщество активно реплицирует, настраивает и учится. Эта тема связана с питонической продуктивностью: CUDA Python на GitHub и PyPI помогает разработчикам PyTorch сливать ядра, интегрировать расширения и выпускать пакеты без борьбы с хрупкими тулчейнами, в то время как команды TensorFlow пользуются теми же ускоренными библиотеками (cuDNN, cuBLAS, CUTLASS) под капотом.
- 🧪 Воспроизводимость: публикуйте семена, датасеты и скрипты вместе с весами.
- 🦾 Воплощенный ИИ: сначала симулируйте; развертывайте на оборудовании после тщательного тестирования.
- 🧠 Образование: спидраньте небольшую LLM, чтобы понять градиенты и производительность.
- 🧱 Стандарты: ориентируйтесь на говернанс Red Hat и инкубацию Apache для устойчивых дорожных карт.
| Область фокуса 🔬 | Открытый ресурс | Выгода для разработчика |
|---|---|---|
| Открытые веса | Семейство Nemotron на Hugging Face | Кастомизация, адаптация к домену, воспроизводимые статьи 📈 |
| Симуляция | Isaac Sim + Newton | Безопаснее тесты, быстрее итерации, меньше регрессий 🛡️ |
| Грамотность LLM | Nanochat + Launchables | Практическое понимание полного конвейера 🧰 |
| Ускорение Python | CUDA Python + PyTorch | Слияние ядер, упрощенное пакетирование, высокая пропускная способность ⚙️ |
Чтобы глубже понять модели и динамику экосистемы, полезны ресурсы вроде тенденций тренировки и сравнений экосистем. Для команд, ориентированных на деплоймент, дорожные карты по списанию моделей и архитектурные инсайты помогают планировать миграции. Есть и визуальные объяснители:
Используете ли вы OpenAI endpoints как базу, интегрируете PyTorch для кастомного обучения или смешиваете TensorFlow для специфичных операций, принцип остается прежним: открытые артефакты и общие методы сокращают учебные циклы. Вот так идеи быстро превращаются в рабочие системы.
Практические плейбуки: от прототипа на хакатоне к рабочему процессу на производстве
Open Source AI Week завершилась мышлением создателя: превратите сырое любопытство в повторяемые рабочие процессы. Практический плейбук начинается с малого — тетрадки Colab и маленького датасета — и масштабируется в размеренных шагах с учетом наблюдаемости и контроля затрат. Команды использовали инструменты оценки для сравнения RAG-пайплайнов, затем отслеживали рост точности с помощью повторного ранкинга и извлечения PDF. Когда базовая линия стала стабильной, развертывания vLLM и кеширование снизили задержки до долей секунды.
Для сотрудничества создавались GitHub issues с edge случаями, README документировали полные запуски, облегчая помощь новых участников. CI соединял проверки здравого смысла, а сабмиты на Kaggle предоставляли публичные базовые линии для сообществa. С открытыми весами на Hugging Face кастомизация превратилась из борьбы с инфраструктурой в доставку приятного опыта — помощники, ссылающиеся на источники, роботы с естественными движениями и панели, отвечающие на нужные вопросы быстрее.
Говернанс и долговечность были не второстепенными. Этос Apache Software Foundation и готовность Red Hat к корпоративному применению напомнили участникам, что код нуждается в сопровождении не меньше, чем в скорости. Особенно это важно для команд, смешивающих управляемые API с самохостингом, где сегодняшние решения влияют на долгосрочное сопровождение, приватность и путь обновлений. Чтение часто задаваемых вопросов об ИИ и структурирования подсказок помогало избегать ранних ловушек, в то время как сравнения вроде Copilot vs. ChatGPT разъясняли интеграцию в разработческие методы.
- 🧭 Начинайте с малого: докажите ценность на узкой задаче с измеримыми критериями успеха.
- 🪜 Масштабируйте постепенно: добавляйте повторный ранкинг, кеширование и защитные механизмы по мере улучшения качества.
- 🧪 Тестируйте постоянно: фиксируйте семена, логируйте метрики и публикуйте оценки для каждого изменения.
- 🔄 Вносите вклад обратно: создавайте багрепорты, улучшайте документацию и поддерживайте критичные зависимости.
| Этап 🧩 | Что делать | Сигналы для контроля |
|---|---|---|
| Прототип | Colab + маленький датасет + открытый эмбеддер | Первые полезные ответы; задержка ниже 2 с ⚡ |
| Предпроизводство | Сервис vLLM + повторный ранкинг + пайплайн PDF | Стабильные цитаты; тренд по ошибкам вниз 📉 |
| Запуск | Кеширование + наблюдаемость + бюджет затрат | Предсказуемые траты; p95 задержка в пределах SLO 🎯 |
| Масштаб | Мульти-GPU, автоскейлинг, плейбук red team | Высокая доступность; быстрое MTTR; безопасное поведение под нагрузкой 🛡️ |
Для команд на старте полезно сбалансированное чтение, например, ценообразование наряду с стратегиями с учетом ограничений. Лучшие создатели совмещают амбициозность и размеренный методичный подход — а open source дает основу для быстрого роста без потери устойчивости.
{“@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{“@type”:”Question”,”name”:”How can small teams validate a RAG stack quickly?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Start with a multilingual embedder like Llamau2011Embedu2011Nemotronu20118B, add a lightweight reranker, and parse PDFs into atomic chunks with citations. Benchmark queries in three languages, log accuracy and latency, and publish a Colab with seeds, configs, and data pointers for easy replication.”}},{“@type”:”Question”,”name”:”Whatu2019s the practical value of open weights for research and startups?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Open weights enable fineu2011tuning, continued pretraining on domain data, compression for edge devices, and transparent reproducibility. Teams can run controlled experiments locally, share checkpoints, and build trust with customers and peers.”}},{“@type”:”Question”,”name”:”Which tools help move from demo to production?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Pair vLLM for fast serving with a robust embedding + reranking pipeline, layer in caching and observability, and use GitHub Actions for CI. For experimentation, rely on Jupyter and Google Colab; for datasets and baselines, pull from Kaggle and Hugging Face.”}},{“@type”:”Question”,”name”:”How do governance and community models fit into shipping product?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Processes inspired by the Apache Software Foundation and Red Hat communities help with versioning, documentation, and longu2011term maintenance. Clear contribution guides and roadmaps turn adu2011hoc hacks into sustainable, trusted software.”}},{“@type”:”Question”,”name”:”Where can developers learn about evolving model ecosystems?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Explore pragmatic explainers on training trends and ecosystem shifts, such as guides to OpenAI models, pricing, rate limits, and prompt design, then map those insights to your stack and customers.”}}]}How can small teams validate a RAG stack quickly?
Start with a multilingual embedder like Llama‑Embed‑Nemotron‑8B, add a lightweight reranker, and parse PDFs into atomic chunks with citations. Benchmark queries in three languages, log accuracy and latency, and publish a Colab with seeds, configs, and data pointers for easy replication.
What’s the practical value of open weights for research and startups?
Open weights enable fine‑tuning, continued pretraining on domain data, compression for edge devices, and transparent reproducibility. Teams can run controlled experiments locally, share checkpoints, and build trust with customers and peers.
Which tools help move from demo to production?
Pair vLLM for fast serving with a robust embedding + reranking pipeline, layer in caching and observability, and use GitHub Actions for CI. For experimentation, rely on Jupyter and Google Colab; for datasets and baselines, pull from Kaggle and Hugging Face.
How do governance and community models fit into shipping product?
Processes inspired by the Apache Software Foundation and Red Hat communities help with versioning, documentation, and long‑term maintenance. Clear contribution guides and roadmaps turn ad‑hoc hacks into sustainable, trusted software.
Where can developers learn about evolving model ecosystems?
Explore pragmatic explainers on training trends and ecosystem shifts, such as guides to OpenAI models, pricing, rate limits, and prompt design, then map those insights to your stack and customers.
-
Open Ai6 days agoGPT-4 Turbo 128k: Раскрывая инновации и преимущества 2025 года
-
Инструменты2 weeks agoОткройте лучшие инструменты для генерации имен гномов для уникальных фэнтезийных имен
-
Open Ai1 week agoОткрывая возможности плагинов ChatGPT: улучшите свой опыт в 2025 году
-
Open Ai6 days agoОсвоение тонкой настройки GPT: руководство по эффективной кастомизации ваших моделей в 2025 году
-
Модели ИИ6 days agoМодели GPT-4: Как искусственный интеллект преобразует 2025 год
-
Open Ai7 days agoСравнивая ChatGPT от OpenAI, Claude от Anthropic и Bard от Google: какой инструмент генеративного ИИ будет доминировать в 2025 году?