apache solr что это
Solr Features
Solr is a standalone enterprise search server with a REST-like API. You put documents in it (called «indexing») via JSON, XML, CSV or binary over HTTP. You query it via HTTP GET and receive JSON, XML, CSV or binary results.
Advanced Full-Text Search Capabilities
Optimized for High Volume Traffic
Solr is proven at extremely large scales the world over
Solr uses the tools you use to make application building a snap
Comprehensive Administration Interfaces
Solr ships with a built-in, responsive administrative user interface to make it easy to control your Solr instances
Easy Monitoring
Need more insight into your instances? Solr publishes loads of metric data via JMX
Highly Scalable and Fault Tolerant
Built on the battle-tested Apache Zookeeper, Solr makes it easy to scale up and down. Solr bakes in replication, distribution, rebalancing and fault tolerance out of the box.
Flexible and Adaptable with easy configuration
Solr’s is designed to adapt to your needs all while simplifying configuration
Near Real-Time Indexing
Want to see your updates now? Solr takes advantage of Lucene’s Near Real-Time Indexing capabilities to make sure you see your content when you want to see it
Extensible Plugin Architecture
Solr publishes many well-defined extension points that make it easy to plugin both index and query time plugins. Of course, since it is Apache-licensed open source, you can change any code you want!
Everything but the kitchen sink.
Solr uses the Lucene search library and extends it.
Schema when you want, schemaless when you don’t
Use Solr’s data-driven schemaless mode when getting started and then lock it down when it’s time for production.
Powerful Extensions
Solr ships with optional plugins for indexing rich content (e.g. PDFs, Word), language detection, search results clustering and more
Faceted Search and Filtering
Slice and dice your data as you see fit using a large array of faceting algorithms
Geospatial Search
Enabling location-based search is simple with Solr’s built-in support for spatial search
Advanced Configurable Text Analysis
Solr ships with support for most of the widely spoken languages in the world (English, Chinese, Japanese, German, French and many more) and many other analysis tools designed to make indexing and querying your content as flexible as possible
Highly Configurable and User Extensible Caching
Fine-grained controls on Solr’s built-in caches make it easy to optimize performance
Performance Optimizations
Solr has been tuned to handle the world’s largest sites
Security built right in
Secure Solr with SSL, Authentication and Role based Authorization. Pluggable, of course!
Advanced Storage Options
Building on Lucene’s advanced storage capabilities (codecs, directories and more), Solr makes it easy to tune your data storage needs to fit your application
Monitorable Logging
Easily access Solr’s log files from the admin interface
Query Suggestions, Spelling and More
Solr ships with advanced capabilites for auto-complete (typeahead search), spell checking and more
Your Data, Your Way!
JSON, CSV, XML and more are supported out of the box. Don’t waste precious time converting all your data to a common representation, just send it to Solr!
Rich Document Parsing
Solr ships with Apache Tika built-in, making it easy to index rich content such as Adobe PDF, Microsoft Word and more.
Multiple search indices
Solr supports multi-tenant architectures, making it easy to isolate users and content.
Data Handling
Schema or schemaless, easily define the field types, analysis processes and document structures to make your search application successful
Solr supports both schemaless and schema modes, depending on your goals
Query
HTTP interfaces with flexible IO formats and extensive query parsing support make adding and finding data a snap
Native clients are also available
Documents with missing values can be configured to sort last (or first)
Dozens of query types (boolean, phrase, term, numeric, fielded and more) provide incredible power when searching
Request handling can easily be configured to provide server-side control and simplification of how applications request results
Facets
Slice and dice your data six ways from Sunday
Discovery
Clustering, spellchecking, auto-complete and more make it easy to help users discover content
Plugins and Extensions
Open source and well-documented make Solr highly extensible
Statistics and Aggregations
Spatial
Location-aware search using advanced spatial integrations
Rich Content
Your Data, your way. PDF, Word, Powerpoint and more
Performance
Proven time and time again in world-class organizations, Solr performs and scales to handle the most demanding applications
Scaling
Highly scalable, fault tolerant distributed infrastructure built on Apache Zookeeper
Admin Interface
A rich and powerful User Interface enables deep insight into Solr’s state all without anything extra to install
Features
Resources
Get Started
Community
Related Projects
Copyright В© 2021 The Apache Software Foundation, Licensed under the Apache License, Version 2.0. Privacy Policy
Apache and the Apache feather logo are trademarks of The Apache Software Foundation. Apache Lucene, Apache Solr and their respective logos are trademarks of the Apache Software Foundation. Please see the Apache Trademark Policy for more information. All non-Apache logos are the trademarks of their respective owners.
Solr is highly reliable, scalable and fault tolerant, providing distributed indexing, replication and load-balanced querying, automated failover and recovery, centralized configuration and more. Solr powers the search and navigation features of many of the world’s largest internet sites.
Features
Hundreds of features make Solr incredibly versatile.
Resources
From tutorials to in-depth documentation, you’ll find it here.
Scaling with Solr
Scale with confidence in data integrity and performance.
Solr Community
Get support and give back. Contribute to the Solr project.
Docker
Containerize your Solr deployments with Docker.
Kubernetes
Automate the deployment of Solr with Kubernetes.
Solr is trusted.
Solr powers some of the most heavily-trafficked websites and applications in the world.
See the Powered By section for some examples.
Getting Started
Power your global enterprise or your weekend project.
Download Binary
Click here to download the Solr binary from the available mirrors.
Run Through the Tutorial
The Solr Quick Start tutorial will help you start working with Solr.
Level Up
Once you’ve completed the tutorial, continue to learn with the Solr resource library.
Apache Solr 8.11.0 available
The Solr PMC is pleased to announce the release of Apache Solr 8.11.0. Download here.
The Apache Software Foundation
The Apache Software Foundation provides support for the Apache community of open-source software projects. The Apache projects are defined by collaborative consensus based processes, an open, pragmatic software license and a desire to create high quality software that leads the way in its field. Apache Lucene, Apache Solr, Apache PyLucene, Apache Open Relevance Project and their respective logos are trademarks of The Apache Software Foundation. All other marks mentioned may be trademarks or registered trademarks of their respective owners.
Features
Resources
Get Started
Community
Related Projects
Copyright В© 2021 The Apache Software Foundation, Licensed under the Apache License, Version 2.0. Privacy Policy
Apache and the Apache feather logo are trademarks of The Apache Software Foundation. Apache Lucene, Apache Solr and their respective logos are trademarks of the Apache Software Foundation. Please see the Apache Trademark Policy for more information. All non-Apache logos are the trademarks of their respective owners.
How-to: Apache Solr для анализа данных
Автор: Питер Уитни (Peter Whitney)
Держу пари, вы не знали, что в некоторых случаях Solr обеспечивает невероятную скорость обработки запросов, свойственных процессу решения бизнес-задач.
Если спросить хорошо осведомленного специалиста о том, для чего предназначен Solr, вероятно, он ответит, что Solr (в сочетании с Apache Lucene) представляет собой платформу для полнотекстового поиска с открытым исходным кодом. Этот инструмент используется для индексирования документов и последующего поиска среди них с помощью запросов свободной формы, во многом похожих на запросы к Google. Другой специалист может добавить, что Solr имеет широкие возможности индексирования на основе геолокации с поддержкой радиуса, ограничивающего прямоугольника (bounding box) и поиска по заданному региону. Оба ответа будут правильными.
Менее известен тот факт, что с помощью Solr (+Lucene) также можно запрашивать индексированные данные для анализа и при этом получать ответы невероятно быстро. Применяя Solr подобным образом, вы можете расширить арсенал своего кластера и повысить эффективность использования ресурсов. В некоторой степени Solr может обеспечить возможности, подобные возможностям in-memory NoSQL СУБД (нереляционной СУБД с размещением данных в оперативной памяти).
В этой статье мы научимся использовать преимущество высокой скорости обработки запросов, обеспечиваемое Solr. На примере я покажу, как индексировать документы и выполнять сложные запросы. Затем я дам вам рекомендации, позволяющие определить, целесообразно ли применение данного подхода для решения конкретной задачи. В конце мы кратко сравним возможности Solr с возможностями in-memory NoSQL СУБД, например, MongoDB.
Подыщем набор данных
При поиске подходящего набора данных у меня было несколько критериев. Необходимо было малое количество полей, чтобы данные можно было легко понять. Кроме того, нам требовались данные, характерные для бизнес-задач. Наконец, необходимо было наличие полей с числовыми значениями, чтобы можно было продемонстрировать возможности Solr, такие как фильтрация на основе сравнения ( comparison filtering ) и фильтрация на основе диапазона ( range filtering ).
После некоторого поиска в Интернете я нашел набор данных, удовлетворяющий всем этим критериям. Он представляет собой простой перечень тарифов на электроэнергию за 2011 год с привязкой к почтовому индексу. Набор данных содержит следующие поля и типы:
Создание и загрузка схемы
Solr может самостоятельно сформировать схему на основе данных, автоматически определив поля и типы. Однако, чтобы обеспечить правильное индексирование и соответствующую семантику типов, рекомендуется задать схему явным образом. В нашем примере мы будем работать с определенными полями, выполняя сравнение и фильтрацию на основе диапазона. Поэтому перед индексированием данных мы должны убедиться, что интересующие нас поля будут проиндексированы, и им будет присвоен правильный тип. Кроме того, чтобы минимизировать объем необходимой памяти, мы не будем индексировать поля, не участвующие в поиске.
Первым делом, создадим на локальном диске конфигурацию по умолчанию. Реализуем это посредством следующей команды, где /tmp/electric_rates – локальный каталог, в котором Solr разместит файлы конфигурации:
Все демонстрационные определения полей можно удалить. Ниже представлены определения полей, которые мы будем использовать в нашем примере:
Теперь создадим новую коллекцию:
Проиндексируем данные с помощью следующей команды:
После завершения операции вы увидите, что был проиндексирован 37 791 документ. Безусловно, это небольшой набор данных, но, в первую очередь, я хочу продемонстрировать возможности запросов, а затем уже скорость их обработки.
Быстрые ответы на бизнес-вопросы
Чтобы продемонстрировать возможности запросов Solr на примере наших данных, которые мы только что проиндексировали, давайте зададим несколько бизнес-вопросов. Для каждого бизнес-вопроса я приведу соответствующий запрос к Solr и подробное описание его параметров. Ради краткости вместо полных ответов Solr я опишу только их суть.
Все представленные ниже запросы были обработаны одним экземпляром Solr, работающим в виртуальной машине со следующими характеристиками:
Операционная система: CentOS 6.6
Версия дистрибутива Cloudera (CDH): 5.0.0
Объем памяти, доступный Solr: 5,84 ГБ
Версия Java: 1.7.0_67
Количество процессоров: 1
Сколько энергетических компаний обслуживает штат Мэриленд?
Чтобы ответить на этот вопрос, к полю state применим фильтр, позволяющий выделить данные, относящиеся только к штату Мэриленд ( MD ). Затем определим количество энергетических компаний, обслуживающих Мэриленд, сгруппировав результаты по названиям компаний (по полю utility_name ). Количество результатов в группах ограничим до одного, поскольку нас интересует лишь количество групп. Следующий запрос выполняет описанные действия:
Ниже представлено описание параметров запроса:
В ответе мы получили 4 группы. Запрос был обработан за 23 миллисекунды.
Какая из энергетических компаний Мэриленда предлагает самый низкий бытовой тариф?
Чтобы ответить на этот вопрос, в предыдущий запрос необходимо добавить всего лишь один параметр, который даст указание Solr отсортировать группы по возрастанию на основе величины бытового тарифа. Таким образом, группа с самым низким бытовым тарифом окажется вверху. Кроме того, мы можем ограничить количество групп в ответе до 1.
Ниже представлено описание добавленных или измененных параметров запроса:
Какова величина минимального и максимального бытового тарифа без учета отсутствующих данных?
Описание параметров запроса:
Минимальное значение бытового тарифа 0,0260022258659, а максимальное – 0,849872773537. Запрос был обработан за 5 миллисекунд.
Какому штату и почтовому индексу соответствует самый высокий бытовой тариф?
Описание параметров запроса:
Самый высокий бытовой тариф действует на Аляске в регионе с почтовым индексом 99634. Запрос был обработан за 1 миллисекунду.
Критерии целесообразности применения Solr для анализа данных
Необходимо отметить, что Solr не является in-memory NoSQL СУБД общего назначения. Приняв это во внимание, приведем несколько критериев относительно целесообразности применения Solr в аналитических целях:
Ваша задача требует очень высокой скорости обработки запросов.
Данные, которые необходимо анализировать, уже хранятся в Apache Hadoop.
Вы можете легко задать схему для индексирования данных.
Вам необходимо выполнять запросы (фильтрацию) по многим полям.
Количество индексируемых данных соответствует возможностям кластера Solr.
Если большинство или все вышеперечисленные критерии выполняются, значит Solr прекрасно подходит для анализа ваших данных.
Сравнение Solr и MongoDB
MongoDB – одна из самых популярных NoSQL СУБД. Давайте сравним Solr и MongoDB:
Обратите внимание, в будущем поддержка Kudu может обеспечить новые интересные возможности для Solr.
Заключение
Как видите, Solr обеспечивает чрезвычайно высокую скорость обработки запросов. Несмотря на то, что язык запросов не похож на SQL, немного попрактиковавшись, вы легко овладеете им и получите в свое распоряжение отличный инструмент.
Чтобы ответить на вопросы, приведенные в качестве примеров, мы использовали группировку, сортировку, фильтрацию на основе сравнения, фильтрацию на основе диапазона и расчет статистических характеристик. Хотя Solr не следует рассматривать, как in-memory NoSQL СУБД общего назначения, тем не менее этот инструмент можно успешно применять в аналитических целях, получая в качестве преимущества высокую скорость обработки запросов. Таким образом, имея в своем арсенале Solr, архитектор экосистемы Hadoop приобретает дополнительные возможности, которые могут существенно облегчить решение определенных задач.
Повышаем производительность поиска с помощью партиционирования индекса в Apache Solr
Проблема
Некоторые поисковые запросы на сайте занимали десятки секунд, иногда такие задержки приводят к Gateway Timeout у конечных пользователей.
Входные условия
Полнотекстовый поиск реализован на Apache Solr. Работает постоянная индексация. Весь индекс находится в одной коллекции. Размер RAM на серверах позволяет поместить весь индекс в файловый кэш.
Пример
Пусть есть следующий запрос к Apache Solr:
q = fieldA=q* OR fieldB=q* OR fieldC=q* OR fieldD=q*
Предположим, он занимает N секунд для первого запроса, остальные отработают быстрее, так как часть данных уже в файловом кэше и во внутренних кэшах Apache Solr/Lucene. Выясняем, что простое чтение полного индекса в оперативку занимает N/4 секунд. Очевидно, проблема в размере индекса, с которым приходится работать Solr’у.
Что нам предлагает Apache Solr и SolrCloud?
Distributed Search мы не рассматриваем, как устаревшую технологию, недостатки которой представлены в описании SolrCloud.
Минусы шардинга на SolrCloud
Документация по SolrCloud предлагает два варианта шардинга — автоматический и “ручной”, с использованием команды SPLITSHARD.
При автоматическом режиме заранее задается количество шардов. SolrCloud с помощью ZooKeeper занимается балансировкой загрузки шардов при индексации, шарды для поиска выбираются автоматически. В “ручном” режиме мы сами выбираем время и шард для разделения его на два.
Автоматический режим нам не подходит. У нас есть явный ключ для партиционирования, то есть для роутинга документов по шардам при индексации. Сам роутинг может быть изменен после индексации, когда мы сможем оценить размер шарда. Автоматическая ребалансировка по шардам предполагает, что одна наша партиция может быть разбросана по нескольким шардам, в наихудшем случае, по всем. Нас это не устраивает, если у нас есть настолько большая партиция, что части её находятся на всех шардах, мы бы хотели выделить её в отдельный шард без других партиций.
Решение
Схема работает следующим образом. Поисковые запросы направляются попеременно на все узлы Apache Solr. Для маршрутизации запросов используется класс LBHttpSolrServer из клиентской библиотеки solrj, скорость запросов с ним выше, чем с CloudSolrServer, но падения узлов приходится отслеживать вручную и перезапрашивать актуальную информацию с ZooKeeper. Запросы на индексацию можно так же выполнять через LBHttpSolrServer/CloudSolrServer/ZooKeeper, либо напрямую на один из узлов Apache Solr, оставляя второй узел менее нагруженным для ускорения поисковых запросов.
Пример Apache Solr Hello World
Apache Solr — это сервер поисковой и аналитической системы реального времени на основе REST-API с открытым исходным кодом от Apache Software Foundation. Его основная функциональность поиска построена с использованием Apache Lucene Framework и дополнена некоторыми дополнительными и полезными функциями. Это написано на языке Java.
Особенности Apache Solr: —
Преимущества или преимущества Apache Solr: —
Недостатки или ограничения Apache Solr: —
Популярные клиенты, которые используют Apache Solr: —
Популярные дистрибутивы Hadoop, такие как Cloudera, Hortonworks и MapR, используют Apache Solr для поддержки функции поиска.
Заметка
Как мы знаем, Apache Solr написан на Java. Таким образом, мы должны иметь Java / JRE в нашем системном пути, чтобы использовать его. Пожалуйста, установите и настройте Java Environment правильно. Для Apache Solr 5.x требуется Java 7 или более поздняя версия. Для Apache 6.x требуется Java 8 или более поздняя версия.
Мы можем использовать Apache Solr в двух вариантах:
В этом руководстве мы собираемся использовать автономный сервер Apache Solr v6.4.2 для демонстрации наших примеров.
Заметка
В начальных версиях Apache Solr не поддерживает функцию Colud. Начиная с выпуска Apache Solr 4.0, он поддерживает Cloud с помощью компонента SolrCloud.
1. Установите Apache Solr локально
Выполните следующие действия, чтобы настроить автономный сервер Apache Solr локально в средах Windows, Linux (например, Ubuntu) или Mac OS.
Заметка
Чтобы загрузить последнюю версию Apache Solr, обратитесь к официальной ссылке для скачивания
1.1 Среда Windows
Используйте эту ссылку для загрузки Apache Solr V. 6.4.2. Ты получишь solr-6.4.2.zip для сред Windows.
извлеченный solr-6.4.2.zip подать в F:solr-6.4.2
1.2 Среда Linux или Mac
Используйте эту ссылку для загрузки Apache Solr V. 6.4.2. Ты получишь solr-6.4.2.tgz для Linux или Mac.
Теперь мы успешно установили Apache Solr.
2. Запустите / остановите Apache Solr локально
Некоторые команды для управления сервером Apache Solr.
2.1 Проверка статуса Apache Solr
Перед запуском Solr Server, пожалуйста, выполните следующую команду «status», чтобы узнать статус.
2.2 Запустите Apache Solr
Если мы наблюдаем вышеупомянутые журналы команд запуска, мы можем понять, что сервер Apache Solr запущен с номером порта по умолчанию: 8983. Теперь снова выполните команду «status», чтобы узнать состояние сервера.
Запустите Apache Solr с другим номером порта
2.3 Стоп Apache Solr
Используйте команду «стоп», чтобы остановить сервер
2.4 Перезапустите Apache Solr
3. Терминология Apache Solr
3.1 Что такое экземпляр Solr?
В Apache Solr экземпляр Solr — это экземпляр Solr, работающий в JVM. В автономном режиме Solr содержит только один экземпляр, а в облачном режиме — один или несколько экземпляров.
3.2 Что такое ядро Solr?
В Apache Solr ядро Solr также называют просто «ядром». Ядро — это указатель текстов и полей, доступных во всех документах. Один экземпляр Solr может содержать один или несколько ядер Solr.
Другими словами, Solr Core = экземпляр Apache Lucene Index + Solr Configuration (solr.xml, solrconfig.xml и т. Д.)
PS: — Apache Solr использует следующие важные файлы конфигурации:
Если вы хотите экспериментировать с Apache Solr в качестве архитектуры на основе Schama, обратитесь к документации Apache Solr.
3.3 Что такое индексирование?
В Apache Lucene или Solr индексирование — это метод добавления содержимого документа в Solr Index, чтобы мы могли легко их искать. Apache Solr использует технику перевернутого индекса Apache Lucene для индексирования своих документов. Вот почему Solr обеспечивает очень быстрый поиск.
3.4 Что такое документ?
В Apache Solr документ представляет собой группу полей и их значений. Документы являются основной единицей данных, которые мы храним в ядрах Apache. Одно ядро может содержать один или несколько документов.
3.5 Что такое поле?
В Apache Solr поле — это фактические данные, хранящиеся в документе. Это пара ключ-значение. Ключ указывает имя поля, а значение содержит данные этого поля. Один документ может содержать одно или несколько полей. Apache Solr использует эти данные поля для индексации содержимого документа.
Важные моменты для запоминания:
Заметка
Поскольку это руководство предназначено только для автономного режима Apache Solr, мы не обсуждаем терминологию SolrCloud.
4. Консоль администрирования Apache Solr
В отличие от ElasticSearch, Apache Solr имеет веб-интерфейс или консоль администратора. Это одно из преимуществ Apache Solr. Администраторам и программистам Solr полезно просматривать подробные сведения о конфигурации Solr, выполнять запросы и анализировать поля документа для точной настройки конфигурации Solr и т. Д.
Как только мы запустили Apache Solr, мы можем получить доступ к его консоли администратора, используя: http:// локальный: 8983 / Solr /
Как показано на приведенной выше диаграмме, изначально Apache Solr НЕ имеет никаких ядер, поэтому на левой боковой панели отображается «Нет доступных ядер».
Мы можем использовать эту консоль администратора:
5. Создайте «helloworld» Apache Solr Core
Мы можем выполнять операции Apache Solr, такие как CRUD для Apache Core или CRUD для Doucment или Field, используя следующие способы:
Во-первых, давайте поговорим о том, как создать Core с помощью команд, и просмотрим их в консоли администратора.
Перед выполнением этих команд, пожалуйста, запустите Apache Solr, используя команду «solr start». Мы можем использовать команду «создать» для создания ядра Apache, как показано ниже:
Здесь команда «create» используется для создания Core, а опция «-c» указывает Solr Core Name.
Если мы увидим вышеприведенный вывод, мы сможем понять, что ядро «helloworld» создано успешно. Даже мы можем видеть следующий URL REST API в этом выводе, чтобы создать ядро «helloworld».
Здесь параметр «action» Query указывает операцию «CREATE», а name определяет имя Core, а instanceDir указывает имя каталога. Мы можем использовать как name, так и instanceDir, одинаковые или разные.
После выполнения этой команды, если мы обновим консоль администратора, мы не увидим «Нет доступных ядер» на левой боковой панели. Теперь вы можете увидеть опцию «Core Selector». Если мы нажмем на это, оно отобразит ядро «helloworld» в выпадающем списке. Если вы выберете это ядро, оно отобразит всю информацию на левой боковой панели. Он также отображает другую опцию чуть ниже в этом выпадающем списке:
Показать обзорную информацию об этом ядре.
Для создания / обновления / удаления документов в или из ядра.
Для запроса или просмотра документов или полей (данных).
Чтобы создать Apache Core с необходимым именем папки
Здесь наше ядро «helloworld» создает с именем папки «myhellowolrd»
6. Добавить / обновить / импортировать документы в Core
Поскольку мы только что создали ядро «helloworld», оно пустое. Не содержит документов или данных. Мы можем использовать опцию «Документы» консоли администратора Apache Solr для добавления / обновления / импорта документов в это ядро.
Мы можем добавлять Документы, используя Контент напрямую в различных форматах, таких как JSON, XML, Binary и т. Д., Или используя опцию FileUpload для прямой загрузки файлов в качестве Документов.
Добавить файлы в ядро «helloworld»
Создает документ с доступными данными в films.json файл. Мы можем сделать то же самое, используя файлы XML, CSV и т. Д.
7. Запрос документов из ядра
Мы можем использовать REST API или консоль администратора для запроса документов из ядра Apache.
Давайте рассмотрим это сейчас с помощью консоли администратора Apache.
Вы можете получить те же результаты, используя следующий вызов REST API. Вы увидите те же результаты в браузере или клиенте REST.
Здесь «q» представляет «параметры запроса для фильтрации данных. Используется синтаксис «q = Fieldname: Value». Здесь «q = *: *» означает запрос всего. «Wt» означает «тип писателя» или «тип ответа».
Теперь давайте сделаем запрос с некоторыми параметрами фильтрации. Вы можете получить доступ к этому API REST из веб-браузера или любых других клиентов REST, таких как POSTMAN, Sense, Fidler и т. Д.
Здесь мы извлекли все данные из документа фильмов, которые соответствуют этому запросу dire_by = ”Gary Lennon”. Если вы хорошо разбираетесь в SQL, мы можем преобразовать этот запрос в следующую команду SQL SELECT.
Вы можете получить те же результаты, используя следующий вызов REST API. Вы увидите те же результаты в браузере или клиенте REST.
Здесь «fl» обозначает список полей в ответе или результатах. Мы заинтересованы в поиске только «жанрового» поля. Преобразуйте это в SQL-запрос.
Таким же образом, пожалуйста, попробуйте поэкспериментировать с различными запросами SELECT для получения или фильтрации данных.
8. Удалите документы Apache Solr
Здесь мы собираемся удалить один документ, который соответствует условию dire_by = ”Zack Snyder”. Мы используем тот же «Request-Handler» = «/ update», что означает, что мы собираемся обновить ядро. Мы используем ”, Что означает, что мы собираемся удалить или удалить Документ, который соответствует данному условию.
Здесь мы используем команду curl для выполнения операции DELETE, чтобы охватить также пример команды CURL. Вы можете поэкспериментировать в этом примере с другими опциями, такими как клиент REST и т. Д.
9. Удалить Apache Solr Core
Мы можем обновить Apache Solr Core, используя «Request-Handler» = «/ update» и выполняя операции добавления / обновления / удаления для документов. Для этого мы можем использовать REST API в браузере, консоли администратора, клиенте REST или команде CURL. При необходимости мы можем удалить или удалить ядра, используя опцию «Unload» в консоли администратора Apache Solr.
Пожалуйста, выполните следующие действия, чтобы выгрузить ядро
10. Почему Apache Solr? Почему не Apache Lucene?
11. Apache Solr против ElasticSearch против реляционных баз данных
Как мы знаем, и Apache Solr, и ElasticSearch используют Apache Lucene для реализации своих основных функций. Почти оба поддерживают одинаковые функции. Некоторые заметные сходства:
У них есть следующие отличия.
Различия между Apache Solr и реляционными базами данных