Marqo представляет собой инновационную платформу, предназначенную для обучения и развертывания моделей встраивания. Эта платформа позволяет быстро прототипировать, ускорять итерации и без проблем развертывать более 150 моделей встраивания. С Marqo вы можете создавать мощные поисковые приложения и трансформировать свою систему поиска.
Одной из ключевых особенностей Marqo является его способность обучать сотни моделей встраивания с открытым исходным кодом, а также поддерживать пользовательские модели и обучение с использованием обобщенного контрастного обучения. Это делает Marqo идеальным выбором для тех, кто ищет гибкость и мощность в обучении моделей.
Кроме того, Marqo предлагает горизонтально масштабируемый поиск по векторам и лексике с обработкой метаданных, переранжированием, фильтрацией, модификацией оценок и гибридным поиском. Это позволяет пользователям не только находить нужную информацию, но и улучшать релевантность поисковых результатов.
Marqo также предоставляет инструменты для оценки вашей поисковой системы, включая оценки точности, ранжирования, согласованности и средней релевантности. Использование многомодальных LLM для анализа релевантности каждого возвращенного результата для стандартизированного набора запросов помогает увеличить скорость итерации и улучшить результаты в производстве.
С Marqo вы можете использовать передовой семантический поиск для улучшения релевантности и оптимизации результатов для бизнес-целей, улучшать производительность приложений генеративного ИИ с помощью современных встраиваний, тонкой настройки и многомодальных возможностей, а также рекомендовать лучшие продукты для ваших клиентов на основе их поиска, просмотра и других характеристик.
Marqo поддерживает поиск на более чем 100 языках, предоставляя доступ к современным многоязычным моделям. Это позволяет расширить поиск на новые локали без необходимости ручной настройки языковых конфигураций.
Платформа Marqo может быть масштабирована от работы в Docker-образе на вашем ноутбуке до десятков узлов вывода на GPU в облаке, обеспечивая низкую задержку поиска по индексам объемом в несколько терабайт.