|
Сравнение движков полнотекстового поиска
Материал из CustisWiki
Так как в интернетах тема сравнения движков полнотекстового поиска не раскрыта — есть либо разрозненные комменты на хабре, либо бессмысленные сравнения от «специальных сравнительных сайтов», решил всё-таки сам сравнить MySQL FULLTEXT vs Xapian vs Sphinx vs Lucene/Solr vs PostgreSQL Textsearch. Заодно попробовал CLucene, а в процессе ещё и запатчил несколько багов и нашёл несколько болячек в разных движках.
Сравнение проводилось с точки зрения средненькой базы — тестировал на данных Багзиллы, содержащей в районе 80000 багов, текстов было ~330 мб. Со всеми движками работал из Perl’а, то есть, заодно тестировал интерфейсные библиотеки. ОС Debian Linux Unstable (Wheezy/Sid), процессор Core 2 Duo 3 ГГц.
Итак, встречайте:
- Индексы можно создавать только на полях MyISAM-таблиц.
- Размер индекса — примерно половина от размера данных. Правда, нужно иметь ввиду, что отключить сохранение самих текстов вы не можете, поэтому к этим 50 % нужно добавить ещё 100 % — данные-то хранятся.
- Скорость индексации — в чистом виде приличная, примерно 1.5 МБ/с. Понятно, что ещё нужно прогонять через стеммер. Если наполнять индекс, на ходу вытаскивая данные из той же базы, и прогоняя через Perl-порт русского Snowball-стеммера — получается 314 КБ/с. На самом деле в MySQL есть архитектура для подключения стеммеров плагинами («fulltext parser plugins»), вот только самих плагинов как-то нет… :)
- Встроенного стеммера нет, стоп-слова вшиты английские, свои добавить нельзя. По умолчанию булев поиск идёт по «ИЛИ», поэтому для поиска по «И» нужно каждое слово превращать в «+слово».
- Есть два режима — булев и обычный («natural language») поиск. Булев поиск просто проверяет, есть ли слова в документе и поддерживает логические операции, фразы и префиксный поиск, но не возвращает оценку релевантности (только 0 или 1). Обычный поиск умеет релевантность, но не умеет операторы. Поэтому, чтобы поддерживать и то, и другое — нужно дёргать один и тот же запрос в двух режимах.
- Префиксный поиск в MySQL феерически медленный. На нескольких словах, развёрнутых в префиксы, легко может получиться и 15, и 40 секунд. Так что его не нужно использовать вообще.
- По нескольким полям одновременно искать не умеет — то есть, синтаксис-то такой MATCH() позволяет, но никакой оптимизации поиска при этом не происходит, а происходит фулскан. Поэтому лучше писать (select id where match(field1) ...) UNION (select id where match(field2) ...).
- Скорость поиска, по запросам, взятым из заголовков случайных багов, с лимитом количества найденного 1000:
- В 5 потоков на 3 словах — в среднем 175 мс, максимум 3.46 сек.
- В 5 потоков на 3 словах, первые 10 результатов — так же.
- В 5 потоков на 2 словах — в среднем 210 мс, максимум 3.1 сек.
- В 1 поток на 3 словах — в среднем 63 мс, максимум 764 мс.
- Зависит в основном от количества найденного.
- Основное достоинство — наличие поиска «искаропки».
Sphinx (2.0.1-beta)
- Отдельный поисковый сервер. Интерфейсные библиотеки к нему есть для кучи разных языков. Очень прикольно, что в 0.9.9, кроме «родного» интерфейса, появился SphinxQL — SQL-интерфейс к Sphinx’у по протоколу MySQL, то есть, с использованием обычных MySQL-клиентов.
- Изначально обновляемых (realtime) индексов в сфинксе не было, единственное, что он умел — это построить индекс целиком и потом по нему искать.
- Не умеет нормально обновлять/удалять документы в индексе до сих пор, нормально только добавляет. Удаление производится установкой флажка «старая запись», и последующим её удалением из всех результатов поиска каждый раз.
- Realtime индексы поддерживают не всё — например, не поддерживают префиксы/инфиксы и MVA.
- Немножко бардак с интерфейсами и фичами: обновление реалтайм индекса только через SphinxQL; синтаксис поиска во всех трёх интерфейсах разный (обычный, SphinxQL, SphinxSE); штук 5 режимов поиска, из которых 4 obsolete; indexer не может перестраивать реалтайм индексы; TRUNCATE индекса через SphinxQL сделать нельзя, посмотреть, сколько в индексе записей, тоже нельзя…
- На этом недостатки заканчиваются — есть сервер поиска, с которым можно общаться по собственному протоколу или протоколу MySQL, куча разных возможностей, индексирует и ищет очень быстро, размер индекса — примерно 1/3 данных. Может увеличиться раза в 2, если включить индексацию точных словоформ.
- Встроены русский, английский и чешский стеммеры и препроцессоры Soundex и Metaphone (для сравнения английских слов по звучанию). Стеммеры для других языков можно тоже подключить, только нужно собирать с ключиком --with-libstemmer. Поддержка стоп-слов, разумеется, есть. Синонимы тоже, причём есть обычные, а есть «tokenizing exceptions», которые могут включать в себя спецсимволы. Также есть «blend_chars» — символы, которые одновременно считаются и разделителями, и входящими в слова — например, чтобы «AT&T» превратилось в слова «AT», «T» и «AT&T».
- Из прикольных необычных фич — умеет инфиксный поиск (для тех, кто хотел быстро искать по подстроке!), многозначные поля (MVA), умеет индексировать по абзацам и предложениям и даже по содержимому заранее заданных HTML-тегов. Также может подсвечивать искомые слова в цитатах и многое другое. Правда, MVA и инфиксы не поддерживаются (пока что?) в обновляемых индексах.
- Индексация очень быстрая — чистая скорость с реалтайм индексом 6.7 МБ/с (загрузка SQL-дампа), с обычным индексом — вообще 12 МБ/с (загрузка xmlpipe2-дампа). «Нечистая» скорость (из Perl’а, с вычиткой данных на лету из MySQL) — 4.5 МБ/с. С инфиксами всё, естественно, сильно замедляется — 440 КБ/с, куча ввода-вывода — 10.5 ГБ, и индекс получается 3 ГБ размером на 330 МБ данных.
- Поиск вообще реактивный:
- В 5 потоков на 3 словах — в среднем 7 мс, максимум 75 мс.
- В 5 потоков на 2 словах — в среднем 7 мс, максимум 81 мс.
- В 5 потоков на 3 словах, первые 10 результатов — в среднем 5 мс, максимум 57 мс.
- В 1 поток на 3 словах — в среднем 2 мс, максимум 35 мс.
- Библиотека, готового сервера поиска нет. C++ API довольно вменяемое. Конкурентную работу вроде поддерживает (много читателей, один писатель).
- Куча доступных биндингов под разные языки: C++, Java, Perl, Python, PHP, Tcl, C#, Ruby, Lua.
- Индекс — инвертированный на основе B-дерева.
- Круто то, что Xapian не обязательно использовать именно как полнотекстовый индекс — по сути, это просто реализация инвертированного индекса, которую можно использовать как в голову взбредёт, потому что ограничений на «слова», содержащиеся в документе, нет, кроме ограничения длины 245 байтами. По идее, можно его использовать в качестве БД.
- Откровенно хреновая документация. Какое-то сборище кусочков информации, в котором ещё и не всё есть. Чтобы понять какие-то моменты, приходится тупо лазать в код. Я обнаглел и поставил баг даже на эту тему — баг 564. Ну а что, правда — движок-то вроде неплохой, но мало кто о нём знает.
- Забавно, что начав его тестировать, нашёл странный баг — сегфолт в libuuid, не позволяющий создать базу, если параллельно загружен Image::Magick. Оказалось, что это даже не баг ImageMagick’а, а ещё серьёзнее — это баг libc6! В 2.12 и 2.13 поломана инициализация Thread-Local Storage при динамической загрузке библиотек, о как. В 2.14 пофикшено, но в дебиане-то пока 2.13. Поставил в дебиан баг 637239 (там же есть ссылки на баги в gentoo и самой libc).
- Perl-биндинги требуют допиливания для возможности выбора бэкенда, а по умолчанию не новейший Brass, а стабильный Chert. Допиливание лёгкое. На эту тему я тоже поставил им баг — баг 565.
- Поддержки разных полей в индексе как бы нет, но она делается добавлением в начало каждого слова префиксов: http://xapian.org/docs/omega/termprefixes.html
- Это «официальный подход», Xapian его умеет сам, только префиксы укажи.
- Такой подход имеет как минимум один небольшой недостаток — по умолчанию запрос не ищет по всем полям, а чтобы искал по всем, нужно руками вставлять в запрос OR.
- Да, документация опять неполная и не там, где надо — должна быть в мануале Xapian’а, а она — в мануале Omega, которая являет собой готовый простенький CGI-поисковичок.
- Неприятный момент — быстренько нашёл баг в парсере запросов — он неправильно генерирует термины для поиска основ слов в полях (которые с префиксами). Индексатор ко всем основам в начале приписывает префикс «Z», то есть основа для слова «идея» в заголовке (скажем, префикс T) проиндексируется как «ZTиде». А парсер запросов пытается искать по «Tиде» и, естественно, ничего не находит. Поставил им на эту тему баг 562. Фиксится, на самом деле, одной строчкой.
- Стеммеры есть встроенные для 15 языков, как обычно, сгенерённые из Snowball'а. Есть поддержка стоп-слов (разумеется) и синонимов. Ещё интереснее — оно может исправлять опечатки без использования словарей, а лишь на основе индексированных данных (должно включаться настройкой). То есть, например, для «Xapain» оно честно подскажет «Xapian». Ещё есть поддержка поиска по «недовведённому запросу», то есть, для подсказок при вводе запроса побуквенно. По сути, это просто добавление * к последнему слову в поиске, но с учтёнными нюансами синтаксиса запросов.
- Ещё есть «Faceted Search» — подсчёт агрегатных значений по всем или почти всем найденным документам (скажем, с лимитом в 10000). То есть, эти 10000 документов вам возвращены не будут, но будут проверены и по ним будет подсчитано какое-то агрегатное значение. Например, таким образом можно выдать 10 результатов (страницу) и одновременно ответить на вопрос «из каких категорий найдены документы».
- Паршиво, что если при индексации раз в 256 багов делать flush() (commit), то скорость с ~1.5 МБ/с снижается до 412 КБ/с, причём, сильно возрастает количество операций
ввода-вывода — раз в 10-20. В принципе, это заявлено и логично для любого инвертированного индекса — гораздо оптимальнее накапливать изменения, чем пытаться обновлять по одному, ибо количество обновляемых лексем возрастает.
- Размер индекса — пишут, что примерно равен размеру данных, это не так, реально больше раза в 2. Пишут, если не хранить позиции слов в документах, станет в 2 раза меньше. Но извините, Sphinx тоже хранит позиции, а индекс у него в 2 раза меньше данных. Если прогнать xapian-compact (дефрагментация БД) — индекс таки да, уменьшается, но всё равно остаётся где-то в 1.7 раза больше данных.
- Ага, причина найдена — Xapian всегда индексирует и основы, и точные формы слов. Отключить индексацию точных форм нельзя, обидно, поставил на эту тему им баг 563.
- Ищет быстро. Тестировал так: искал по нескольким соседним словам длиной не меньше 2 символов, в режиме STEM_ALL, взятым из заголовков багов (искал не по «ИЛИ», а «И»), причём каждое слово заменял на (слово OR title:слово OR private:слово), то есть на поиск по трём полям вместо одного, ограничивал количество результатов 1000.
- В 5 потоков на 3 словах — в среднем 14 мс, максимум 135 мс.
- В 5 потоков на 2 словах — в среднем 29 мс, максимум 137 мс.
- В 5 потоков на 3 словах, первые 10 результатов — в среднем 2 мс, максимум 26 мс.
- В 1 поток на 3 словах — в среднем 7 мс, максимум 51 мс.
- Скорость поиска зависит в основном от количества найденных результатов, чем больше — тем дольше ищет.
Xapian имеет 3 backend’а (реализации самого индекса) — в порядке новизны Flint, Chert и Brass. Это как в Debian’е oldstable, stable и testing :) в 1.2.x бэкенд по умолчанию — Chert. До Flint’а ещё был Quartz.
| Размер индекса | После xapian-compact | Индексация без flush() | Если дёргать flush() |
Flint | 2.5x | 1.85x | 1.1 МБ/с, 1.1 ГБ записи | 310 КБ/с, 18.6 ГБ записи |
Chert | 2.2x | 1.68x | 1.2 МБ/с, 1.0 ГБ записи | 431 КБ/с, 14 ГБ записи |
Brass | 2.2x | 1.68x | 1.36 МБ/с, 1.0 ГБ записи | 412 КБ/с, 13.5 ГБ записи |
- Индекс — инвертированный на основе GIN (обобщённый инвертированный индекс — Generalized Inverted iNdex). Раньше назывался Tsearch2, создан Олегом Бартуновым и Фёдором Сигаевым.
- Есть встроенные стеммеры, поддержка стоп-слов, синонимов, тезауруса (что-то типа словаря понятий, заменяет слова на другие «предпочитаемые»), словарей ISpell (хотя они, говорят, жутко тормозят при инициализации).
- Есть возможность при индексации прицепить к каждой лексеме «вес», который на самом деле не «вес», а аналог Xapian-префикса, то есть, название поля, из которого лексема пришла. Таких «весов» может быть всего 4 — A, B, C, D, и в дальнейшем их можно использовать при поиске. Пример построения tsvector'а из двух полей с «весами»: setweight(to_tsvector(coalesce(title,'')), 'A') || setweight(to_tsvector(coalesce(keyword,'')), 'B').
- Есть отдельные функции для ранжирования результатов и подсветки искомых слов в цитатах. Ранжировать можно, присваивая численные веса «весам» ABCD, указанным выше (которые «поля»). Причём по умолчанию веса равны {0.1, 0.2, 0.4, 1.0}.
- Индексируемый тип данных называется tsvector (text search vector). PostgreSQL позволяет создавать функциональные индексы, и в мануале по умолчанию предлагают создавать именно их — CREATE INDEX i ON t USING gin(to_tsvector(<поле>)). Так вот: не надо так делать! А то очень неприятно удивитесь скорости запросов. Обязательно создавайте отдельную колонку типа tsvector, складывайте в неё свои tsvector'ы, и создавайте индекс на ней.
- Объясняю, почему: функция ранжирования результатов отдельная, и тоже работает с tsvector'ом. Если он не хранится, то должен вычисляться на лету при каждом запросе для каждого документа, а это очень хреново влияет на производительность, особенно, когда запрос находит много документов. То есть, если в запрос тупо включить сортировку по релевантности — ORDER BY ts_rank(to_tsvector(field), <query>) DESC — будет гораздо медленнее MySQL’я :).
- Заодно, в качестве оптимизации дискового пространства, можно не хранить полный текст документов в индексе.
- Из операторов поиска — AND, OR и NOT и префиксный поиск. Поиска близлежащих слов, точных форм, фраз нет.
- Размер индекса — где-то 150 % от размера данных, если сами тексты не хранить, а хранить только tsvector'ы.
- Скорость индексации — пока данных мало, 1.5 МБ/с, с ростом индекса потихоньку падает, но если сами тексты не хранить, то, вроде, устаканивается. На всё тех же данных багзиллы получилось в среднем 522 КБ/с, хотя к концу индексации было меньше, чем в начале.
- Скорость поиска:
- В 5 потоков на 3 словах — в среднем 28 мс, максимум 2.1 сек.
- В 5 потоков на 2 словах — в среднем 54 мс, максимум 2.3 сек.
- В 5 потоков на 3 словах, первые 10 результатов — в среднем 26 мс, максимум 611 мс.
- В 1 поток на 3 словах — в среднем 10 мс, максимум 213 мс.
- Lucene — это Java-библиотека поиска (не сервер), заобзорить и протестировать её полностью очень сложно — движок самый мощный (но и самый монструозный) из всех рассмотренных.
- То, что это библиотека, написанная на Java, является её главным недостатком — обращаться к Java из других языков сложно, поэтому и у Lucene с интерфейсами проблемы :(. Производительность от Java, возможно, тоже несколько страдает, но скорее всего очень некритично.
- Из биндингов к языкам есть только вполне живой PyLucene — в Python-процесс подсаживается JVM с Lucene на борту, а некий JCC обеспечивает взаимодействие. Но я бы сильно подумал, нужно ли использовать такую комбинацию…
- Для поправки ситуации есть Solr — уже всё-таки поисковый сервер, реализованный в виде веб-сервиса с XML/JSON/CSV-интерфейсами. Для запуска требует servlet-контейнер — Tomcat, или чтобы попроще — Jetty. Вот с ним уже можно работать из многих языков.
- Заявлено, что скорость индексации Lucene «типа, очень большая», больше 20 МБ/с, памяти при этом, типа, требуется очень мало (от 1 МБ), а инкрементальная индексация (по одному документу) такая же быстрая, как и индексация множества документов разом. Размер индекса заявлен 20-30 % от размера данных.
- Lucene очень расширяемая, поэтому есть куча различных фич и приблуд, особенно в сочетании Solr’а с другими библиотеками:
- 31 встроенный стеммер, куча анализаторов — обрабатывающих звучание (Soundex, Metaphone и вариации), аббревиатуры, стоп-слова, синонимы, «protect-слова» (обратное стоп-словам), словосочетания, шинглы, разделение слов (Wi-Fi, WiFi -> Wi Fi), URL’ы, и так далее, множество различных вариантов генерации запросов (например, FuzzyLikeThisQuery — поиск по «запросу, похожему на заданный»).
- Репликация индексов, автоматическая кластеризация (группировка) результатов поиска (Carrot2), поисковый робот (Nutch), поддержка разбора бинарных документов (Word, PDF и т.п) с помощью Tika.
- Есть даже приблуда для «поднятия» заданных результатов по заданным запросам независимо от нормального ранжирования (здравствуй, SEO).
- И даже это ещё не всё.
- Размер индекса совершенно Lucene’ский — 20 % от данных. Скорость индексации Solr’ом по 256 документов за запрос, без промежуточных коммитов, у меня получилась 2.75 МБ/с, а с коммитами раз в 1024 документа — 2.3 МБ/с. Если не коммитить, то памяти кушает больше — у меня в районе 110 МБ resident, если коммитить — 55 МБ.
- Скорость поиска Solr:
- В 5 потоков на 3 словах — в среднем 25 мс, максимум 212 мс.
- В 5 потоков на 2 словах — в среднем 35 мс, максимум 227 мс.
- В 5 потоков на 3 словах, первые 10 результатов — в среднем 15 мс, максимум 190 мс.
- В 1 поток на 3 словах — в среднем 11 мс, максимум 79 мс.
- Lucene написана на Java, и поэтому есть некоторое количество портов её на разные языки, наиболее живые из которых — это C++ и C# порты — CLucene, Lucene++ и Lucene.NET. Есть и другие порты, но они (полу)заброшенные и/или нестабильные.
- С CLucene тоже не всё идеально:
- Развивается медленнее Lucene — в то время, как Lucene уже 3.3, CLucene стабильный (0.9.2.1) всё ещё соответствует Lucene 1.9, и в нём даже нет стеммеров, а CLucene «тестируемый» — Lucene 2.3.
- Биндингов к языкам мало / устаревшие, например Perl-биндинги поддерживают только 0.9.2.1. Называется «Write Your Own». Потратив пару часов, я их запатчил (поставив баг авторам) и даже добавил поддержку стеммеров, которые в 2.3, к счастью, всё-таки есть. Вообще сыроваты эти биндинги, я вот уже ещё один сегфолт выловил и запатчил.
- По-видимому, есть баги, документация в интернете устаревшая (но можно сгенерировать doxygen’ом из исходников нормальную), хостится на SourceForge, на котором всё медленно и грустно, а багтрекер время от времени сам закрывает баги (если на них никто не реагирует O_O).
- По фичам — большая часть фич Lucene в портах есть. Фич всяких Solr’ов, естественно, нет.
- Скорость индексации CLucene — у меня получилась 3.8 МБ/с. Не 20+ заявленных Lucene, но это же со стеммером и через Perl-интерфейс, так что весьма неплохо.
- Размер индекса, как и у Lucene/Solr, получился примерно 20 % от размера данных — это и рекорд среди всех движков, и соответствует заявленным 20-30 %!
- Lucene++ отличается от CLucene следующим:
- Реализация полнее и новее (3.0.3.4), например, есть анализаторы под разные языки со вшитыми стоп-словами.
- Lucene++ везде использует shared_ptr (автоматический подсчёт ссылок на объекты с помощью C++-шаблонов). Причём это очень конкретно заметно даже при компиляции, очень уж она долго происходит по сравнению с CLucene.
- С биндингами ещё хуже, чем в CLucene — есть только полудохлые под питон, сгенерённые SWIG'ом — то есть, наверняка текут как сволочи и вообще неизвестно, работают ли. Хотя мне, честно говоря, сходу даже не очень понятно, как нормально сделать Perl-биндинги к этим shared_ptr’ам.
- Lucene++, по-видимому, используют совсем мало, судя по тому, что в баг-трекере всего 9 багов.
- Скорость поиска — замеры аналогично замерам Xapian, только с использованием MultiFieldQueryParser вместо замены слов на дизъюнкции:
- В 5 потоков на 3 словах получается в среднем 10 мс, максимум 212 мс.
- В 5 потоков на 2 словах — в среднем 19 мс, максимум 201 мс.
- В 5 потоков на 3 словах, первые 10 результатов — в среднем 3 мс, максимум 26 мс.
- В 1 поток на 3 словах — в среднем 4 мс, максимум 39 мс.
- Зависит опять-таки в основном от количества найденного, что соответствует заметке о сложности поиска.
Для тех, кто в танке
- Инвертированный индекс — сопоставляет каждому слову набор документов, в которых оно встречается, в отличие от прямого индекса, который документу сопоставляет набор слов. Практически все движки полнотекстового поиска используют именно инвертированные индексы, ибо искать по ним быстро, хотя обновлять тяжелее, чем прямые.
- Стеммер — от английского слова «stem» — основа слова. Откусывает от слов окончания, делая из них основы. Предназначен для того, чтобы по слову «кошка» нашлись и «кошки», и «кошку», и так далее. Snowball — DSL для написания стеммеров.
- Стоп-слова — список очень часто употребляемых слов (предлогов-союзов и т. п.), индексировать которые нет смысла, потому что значения они содержат мало и встречаются почти везде.
- Позиционная информация — позиции слов в документах, сохраняемые в индексе, для дальнейшего поиска фраз или просто слов, расположенных друг от друга не дальше, чем на …
- Префиксный поиск (слов*) — поиск слов, начинающихся на заданное (например, кошк*). Иногда называется Wildcard-поиском, но строго говоря, Wildcard-поиск — это поиск слов, начинающихся на заданный префикс и оканчивающихся на заданный суффикс (например, ко*а — найдёт и слово «кошка», и «коала»).
- Багзилла — open-source баг-трекер, используемый у нас в компании, на содержимом которого тестировался поиск.
Сравнительная таблица
| MySQL | PostgreSQL | Xapian | Sphinx | Solr | CLucene |
Скорость индексации | 314 КБ/с | 522 КБ/с | 1.36 МБ/с | 4.5 МБ/с | 2.75 МБ/с | 3.8 МБ/с |
Скорость поиска | 175 мс / 3.46 сек | 28 мс / 2.1 сек | 14 мс / 135 мс | 7 мс / 75 мс | 25 мс / 212 мс | 10 мс / 212 мс |
Размер индекса | 150 % | 150 % | 200 % | 30 % | 20 % | 20 % |
Реализация | СУБД | СУБД | Библиотека | Сервер | Сервер | Библиотека |
Интерфейс | SQL | SQL | API | API, SQL | Веб-сервис | API |
Биндинги | ∀ | ∀ | 9 | 6 + ∀ | 8 | 3.5 |
Операторы поиска | &*" | &* | &*"N-~ | &*"N-<Z | &*"N-~ | &*"N-~ |
Стеммеры | Нет | 15 | 15 | 15 | 31 | 15 + CJK |
Стоп-слова, синонимы | Нет | Да | Да | Да | Да | Да |
Soundex | Нет | Нет | Нет | Да | Да | Нет |
Подсветка | Нет | Да | Нет | Да | Да | Да |
Ранжирование результатов и сортировка по разным полям есть везде.
Дополнительно:
MySQL | Query Expansion. |
PostgreSQL | Тезаурус, ISpell. |
Xapian | Коррекция опечаток, фасеты, «недовведённые» запросы. |
Sphinx | Синонимы со спецсимволами, «полуразделители» (blend_chars). Зоны (абзацы/предложения/теги). Инфиксы, MVA, слияние индексов (не обновляемых). Тюнинг производительности. |
Solr | Почти всё, что душа пожелает (но зон нет!). Высокая расширяемость. |
CLucene | Фильтрация документов, фасеты, анализаторы, explain. Высокая расширяемость. |
Заключение
Самый простой и самый быстрый движок — Sphinx. Минус в том, что обновляемые индексы там пока не очень юзабельны — их можно использовать, только если никогда ничего не удалять из индекса. Если это пофиксят, проблема выбора отпадёт совсем, Sphinx всех сделает.
Тоже быстрый, очень фичастый, эффективный и расширяемый, но не самый простой в использовании движок — Lucene. Главная проблема с интерфейсами — либо Java, либо C++ порты и проблемы с биндингами. То есть, если вы пишете не под Java, C++, Python или Perl, надо использовать Solr. Solr памяти уже немножко кушает, индексирует и ищет чуть помедленнее, может быть неудобен как отдельный Java-сервер в сервлет-контейнере, но зато имеет огромную кучу разных возможностей.
Xapian… Ищет шустро, индексирует не очень, и сам индекс получается великоват. Его плюс — куча интерфейсов под разные языки (C++, Java, Perl, Python, PHP, Tcl, C#, Ruby, Lua). Если появится режим для отключения индексации точных форм — размер индекса раза в 2 сразу уменьшится.
Если вы уже используете PostgreSQL и готовы мириться с не очень высокой скоростью индексации и полным отсутствием хитрых операторов поиска, то вполне можно использовать Textsearch, потому что ищет он быстрее MySQL и вполне сравнимо с остальными. Но нужно помнить о том, что индекс обязательно создавать на реальной колонке типа tsvector, а не на выражении to_tsvector().
MySQL FULLTEXT тоже можно использовать в простых случаях, когда база небольшая. Но ни в коем случае не делать MATCH(несколько полей) и ни в коем случае не использовать префиксный поиск.
Внимание! Эта статья была создана путем автоматического реплицирования из внутренней базы знаний компании Заказные Информ Системы. Любые правки этой статьи могут быть перезаписаны при следующем сеансе репликации. Если у вас есть серьезное замечание по тексту статьи, запишите его в раздел «discussion».
|
|