@azure/search-documents package
Классы
| AzureKeyCredential |
Учетные данные на основе статического ключа, поддерживающие обновление базового значения ключа. |
| GeographyPoint |
Представляет географическую точку в глобальных координатах. |
| IndexDocumentsBatch |
Класс, используемый для выполнения пакетных операций с несколькими документами в индекс. |
| SearchClient |
Класс, используемый для выполнения операций с индексом поиска, включая запросы документов в индексе, а также добавление, обновление и удаление. |
| SearchIndexClient |
Класс для управления (создание, обновление, удаление) индексов, & синонимов. |
| SearchIndexerClient |
Класс для управления (создание, обновление, удаление) индексаторов, источников данных & наборов навыков. |
| SearchIndexingBufferedSender |
Класс, используемый для выполнения буферизованных операций с индексом поиска, включая добавление, обновление и удаление. |
Интерфейсы
| AnalyzeRequest |
Указывает некоторые компоненты текста и анализа, используемые для разбиения этого текста на маркеры. |
| AnalyzeResult |
Результат тестирования анализатора на тексте. |
| AnalyzedTokenInfo |
Сведения о маркере, возвращаемом анализатором. |
| AsciiFoldingTokenFilter |
Преобразует алфавитные, числовые и символьные символы Юникода, которые не находятся в первых 127 символах ASCII (блок Юникода "Базовый латиница") в эквиваленты ASCII, если такие эквиваленты существуют. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| AutocompleteItem |
Результат запросов автозавершения. |
| AutocompleteRequest |
Параметры для нечеткого сопоставления и других поведения запросов автозаполнения. |
| AutocompleteResult |
Результат запроса автозаполнения. |
| AzureActiveDirectoryApplicationCredentials |
Учетные данные зарегистрированного приложения, созданного для службы поиска, используемого для проверки подлинности доступа к ключам шифрования, хранящимся в Azure Key Vault. |
| AzureOpenAIEmbeddingSkill |
Позволяет создать вектор внедрения для заданного текстового ввода с помощью ресурса Azure OpenAI. |
| AzureOpenAIParameters |
Содержит параметры, относящиеся к использованию службы Azure Open AI для векторизации во время запроса. |
| AzureOpenAIVectorizer |
Содержит параметры, относящиеся к использованию службы Azure Open AI для векторизации во время запроса. |
| BM25Similarity |
Функция ранжирования на основе алгоритма сходства Okapi BM25. BM25 — это алгоритм TF-IDF, включающий нормализацию длины (контролируемый параметром B), а также насыщенность терминов (контролируемый параметром k1). |
| BaseCharFilter |
Базовый тип для фильтров символов. |
| BaseCognitiveServicesAccount |
Базовый тип для описания любого ресурса службы искусственного интеллекта Azure, подключенного к набору навыков. |
| BaseDataChangeDetectionPolicy |
Базовый тип политик обнаружения изменений данных. |
| BaseDataDeletionDetectionPolicy |
Базовый тип политик обнаружения удаления данных. |
| BaseLexicalAnalyzer |
Базовый тип для анализаторов. |
| BaseLexicalNormalizer |
Базовый тип для нормализаторов. |
| BaseLexicalTokenizer |
Базовый тип для токенизаторов. |
| BaseScoringFunction |
Базовый тип функций, которые могут изменять оценки документов во время ранжирования. |
| BaseSearchIndexerDataIdentity |
Абстрактный базовый тип для удостоверений данных. |
| BaseSearchIndexerSkill |
Базовый тип для навыков. |
| BaseSearchRequestOptions |
Параметры фильтрации, сортировки, фасетирования, разбиения по страницам и других поведении поисковых запросов. |
| BaseTokenFilter |
Базовый тип для фильтров маркеров. |
| BaseVectorQuery |
Параметры запроса для векторных и гибридных поисковых запросов. |
| BaseVectorSearchAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и/или запроса. |
| BaseVectorSearchCompression |
Содержит параметры конфигурации, относящиеся к методу сжатия, используемому во время индексирования или запроса. |
| BaseVectorSearchVectorizer |
Содержит конкретные сведения о методе векторизации, который будет использоваться во время запроса. |
| BinaryQuantizationCompression |
Содержит параметры конфигурации, относящиеся к методу сжатия двоичной квантизации, используемому во время индексирования и запроса. |
| CjkBigramTokenFilter |
Формирует большие кадры терминов CJK, созданных из стандартного токенизатора. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| ClassicSimilarity |
Устаревший алгоритм сходства, использующий реализацию TF-IDF Lucene TFIDFSimilarity. Этот вариант TF-IDF представляет нормализацию статического длины документа, а также координирующие факторы, которые наказывают документы, которые частично соответствуют поисковым запросам. |
| ClassicTokenizer |
Токенизатор на основе грамматики, подходящий для обработки большинства европейских языковых документов. Этот токенизатор реализуется с помощью Apache Lucene. |
| CognitiveServicesAccountKey |
Ключ учетной записи с несколькими регионами ресурса службы искусственного интеллекта Azure, подключенного к набору навыков. |
| CommonGramTokenFilter |
Создавайте bigrams для часто встречающихся терминов при индексировании. Отдельные термины по-прежнему индексируются слишком, при наложении bigrams. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| ComplexField |
Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля. |
| ConditionalSkill |
Навык, позволяющий сценариям, которым требуется логическое действие для определения данных для назначения выходным данным. |
| CorsOptions |
Определяет параметры управления общим доступом к ресурсам между источниками (CORS) для индекса. |
| CreateOrUpdateIndexOptions |
Параметры операции создания и обновления индекса. |
| CreateOrUpdateSkillsetOptions |
Параметры операции создания и обновления набора навыков. |
| CreateOrUpdateSynonymMapOptions |
Параметры операции создания и обновления карты синонимов. |
| CreateorUpdateDataSourceConnectionOptions |
Параметры для операции создания и обновления источника данных. |
| CreateorUpdateIndexerOptions |
Параметры операции создания и обновления индексатора. |
| CustomAnalyzer |
Позволяет контролировать процесс преобразования текста в индексируемые и поисковые маркеры. Это определяемая пользователем конфигурация, состоящая из одного предопределенного токенизатора и одного или нескольких фильтров. Маркеризатор отвечает за разбиение текста в маркеры и фильтры для изменения маркеров, создаваемых токенизатором. |
| CustomEntity |
Объект, содержащий сведения о найденных совпадениях и связанных метаданных. |
| CustomEntityAlias |
Сложный объект, который можно использовать для указания альтернативных орфографических или синонимов имени корневой сущности. |
| CustomEntityLookupSkill |
Навык ищет текст из пользовательского пользовательского списка слов и фраз. |
| CustomLexicalNormalizer |
Позволяет настроить нормализацию для полей с возможностью фильтрации, сортировки и фасетной таблицы, которые по умолчанию работают со строгим сопоставлением. Это определяемая пользователем конфигурация, состоящая по крайней мере из одного или нескольких фильтров, которые изменяют сохраненный маркер. |
| DefaultCognitiveServicesAccount |
Пустой объект, представляющий ресурс службы искусственного интеллекта Azure по умолчанию для набора навыков. |
| DeleteDataSourceConnectionOptions |
Параметры операции удаления источника данных. |
| DeleteIndexOptions |
Параметры операции удаления индекса. |
| DeleteIndexerOptions |
Параметры операции удаления индексатора. |
| DeleteSkillsetOptions |
Параметры удаления оперы набора навыков. |
| DeleteSynonymMapOptions |
Параметры удаления операции сопоставления синонимов. |
| DictionaryDecompounderTokenFilter |
Раскомпозирует составные слова, найденные во многих немецких языках. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| DistanceScoringFunction |
Определяет функцию, которая повышает оценки на основе расстояния от географического расположения. |
| DistanceScoringParameters |
Предоставляет значения параметров функции оценки расстояния. |
| DocumentExtractionSkill |
Навык, извлекающий содержимое из файла в конвейере обогащения. |
| DocumentIntelligenceLayoutSkill |
Навык, который извлекает информацию о содержимом и макете с помощью служб Azure AI из файлов в конвейере обогащения. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Управляет кратностью для разбивки содержимого. |
| EdgeNGramTokenFilter |
Создает n-граммы заданных размеров, начиная с передней или задней части входного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| EdgeNGramTokenizer |
Маркеризирует входные данные из края в n-граммы заданных размеров. Этот токенизатор реализуется с помощью Apache Lucene. |
| ElisionTokenFilter |
Удаляет излизии. Например, "l'avion" (плоскость) преобразуется в "avion" (плоскость). Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| EntityLinkingSkill |
Используя API анализа текста, извлекает связанные сущности из текста. |
| EntityRecognitionSkill |
Распознавание сущностей анализа текста. |
| EntityRecognitionSkillV3 |
С помощью API анализа текста извлекает сущности различных типов из текста. |
| ExhaustiveKnnParameters |
Содержит параметры, относящиеся к исчерпывающим алгоритмам KNN. |
| ExtractiveQueryAnswer |
Извлекает кандидатов ответов из содержимого документов, возвращаемых в ответ на запрос, выраженный как вопрос на естественном языке. |
| ExtractiveQueryCaption |
Извлекает заголовки из соответствующих документов, содержащих фрагменты, относящиеся к поисковому запросу. |
| FacetResult |
Один контейнер результата запроса аспектов. Сообщает количество документов со значением поля, которое попадает в определенный диапазон или имеет определенное значение или интервал. |
| FieldMapping |
Определяет сопоставление между полем в источнике данных и целевым полем в индексе. |
| FieldMappingFunction |
Представляет функцию, которая преобразует значение из источника данных перед индексированием. |
| FreshnessScoringFunction |
Определяет функцию, которая повышает оценки на основе значения поля даты и времени. |
| FreshnessScoringParameters |
Предоставляет значения параметров функции оценки свежести. |
| GetDocumentOptions |
Параметры получения одного документа. |
| HighWaterMarkChangeDetectionPolicy |
Определяет политику обнаружения изменений данных, которая фиксирует изменения в зависимости от значения столбца высокой водяной отметки. |
| HnswParameters |
Содержит параметры, относящиеся к алгоритму hnsw. |
| ImageAnalysisSkill |
Навык, который анализирует файлы изображений. Он извлекает широкий набор визуальных функций на основе содержимого изображения. |
| IndexDocumentsClient |
Клиент индексирования документов |
| IndexDocumentsOptions |
Параметры пакетной операции изменения индекса. |
| IndexDocumentsResult |
Ответ, содержащий состояние операций для всех документов в запросе индексирования. |
| IndexerExecutionResult |
Представляет результат выполнения отдельного индексатора. |
| IndexingParameters |
Представляет параметры для выполнения индексатора. |
| IndexingParametersConfiguration |
Словарь свойств конфигурации для индексатора. Каждое имя — это имя определенного свойства. Каждое значение должно быть примитивным типом. |
| IndexingResult |
Состояние операции индексирования для одного документа. |
| IndexingSchedule |
Представляет расписание выполнения индексатора. |
| InputFieldMappingEntry |
Сопоставление полей ввода для навыка. |
| KeepTokenFilter |
Фильтр маркеров, который сохраняет только маркеры с текстом, содержащимся в указанном списке слов. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| KeyPhraseExtractionSkill |
Навык, использующий анализ текста для извлечения ключевых фраз. |
| KeywordMarkerTokenFilter |
Помечает термины как ключевые слова. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| KeywordTokenizer |
Выводит все входные данные в виде одного маркера. Этот токенизатор реализуется с помощью Apache Lucene. |
| LanguageDetectionSkill |
Навык, который обнаруживает язык входного текста и сообщает один языковой код для каждого документа, отправленного по запросу. Языковой код связан с оценкой, указывающей достоверность анализа. |
| LengthTokenFilter |
Удаляет слова, слишком длинные или слишком короткие. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| LimitTokenFilter |
Ограничивает количество маркеров при индексировании. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| ListSearchResultsPageSettings |
Аргументы для получения следующей страницы результатов поиска. |
| LuceneStandardAnalyzer |
Стандартный анализатор Apache Lucene; Состоит из стандартного токенизатора, нижнего регистра фильтра и фильтра остановки. |
| LuceneStandardTokenizer |
Разбивает текст в соответствии с правилами сегментации текста Юникода. Этот токенизатор реализуется с помощью Apache Lucene. |
| MagnitudeScoringFunction |
Определяет функцию, которая повышает оценки на основе величины числового поля. |
| MagnitudeScoringParameters |
Предоставляет значения параметров функции оценки величины. |
| MappingCharFilter |
Фильтр символов, который применяет сопоставления, определенные с параметром сопоставления. Сопоставление жадно (самый длинный шаблон сопоставления в заданной точке выигрывает). Допускается замена пустой строки. Этот фильтр символов реализуется с помощью Apache Lucene. |
| MergeSkill |
Навык объединения двух или более строк в одну единую строку с необязательным определяемым пользователем разделителем, разделяющим каждую часть компонента. |
| MicrosoftLanguageStemmingTokenizer |
Разделяет текст с помощью правил, относящихся к языку, и сокращает количество слов к базовым формам. |
| MicrosoftLanguageTokenizer |
Делит текст с помощью правил, относящихся к языку. |
| NGramTokenFilter |
Создает n-граммы заданного размера. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| NGramTokenizer |
Маркеризирует входные данные в n-граммах заданных размеров. Этот токенизатор реализуется с помощью Apache Lucene. |
| OcrSkill |
Навык, извлекающий текст из файлов изображений. |
| OutputFieldMappingEntry |
Сопоставление полей вывода для навыка. |
| PIIDetectionSkill |
Используя API анализа текста, извлекает личную информацию из входного текста и предоставляет возможность маскирования. |
| PathHierarchyTokenizer |
Токенизатор для иерархий, похожих на пути. Этот токенизатор реализуется с помощью Apache Lucene. |
| PatternAnalyzer |
Гибкий разделяет текст на термины с помощью шаблона регулярного выражения. Этот анализатор реализуется с помощью Apache Lucene. |
| PatternCaptureTokenFilter |
Использует регрессии Java для выдачи нескольких маркеров — по одному для каждой группы захвата в одном или нескольких шаблонах. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| PatternReplaceCharFilter |
Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение для идентификации последовательностей символов для сохранения и замены шаблона для определения символов для замены. Например, учитывая входной текст "aa bb aa bb", шаблон "(aa)\s+(bb)" и замену "$1#2", результатом будет "aa#bb aa#bb". Этот фильтр символов реализуется с помощью Apache Lucene. |
| PatternReplaceTokenFilter |
Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение для идентификации последовательностей символов для сохранения и замены шаблона для определения символов для замены. Например, учитывая входной текст "aa bb aa bb", шаблон "(aa)\s+(bb)" и замену "$1#2", результатом будет "aa#bb aa#bb". Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| PatternTokenizer |
Токенизатор, использующий сопоставление шаблонов regex для создания уникальных маркеров. Этот токенизатор реализуется с помощью Apache Lucene. |
| PhoneticTokenFilter |
Создайте маркеры для фонетических совпадений. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| QueryAnswerResult |
Ответ — это текст, извлеченный из содержимого наиболее релевантных документов, соответствующих запросу. Ответы извлекаются из лучших результатов поиска. Кандидаты на ответы оцениваются и выбираются лучшие ответы. |
| QueryCaptionResult |
Заголовки являются наиболее репрезентативными фрагментами документа относительно поискового запроса. Они часто используются в качестве сводки документов. Заголовки возвращаются только для запросов типа |
| RescoringOptions |
Содержит параметры для перезаписи. |
| ResourceCounter |
Представляет использование и квоту ресурса. |
| ScalarQuantizationCompression |
Содержит параметры конфигурации, относящиеся к методу сжатия скалярной квантизации, используемому во время индексирования и запроса. |
| ScalarQuantizationParameters |
Содержит параметры, относящиеся к скалярной квантизации. |
| ScoringProfile |
Определяет параметры индекса поиска, влияющего на оценку в поисковых запросах. |
| SearchClientOptions |
Параметры клиента, используемые для настройки запросов API Когнитивного поиска. |
| SearchDocumentsPageResult |
Ответ, содержащий результаты страницы поиска из индекса. |
| SearchDocumentsResult |
Ответ, содержащий результаты поиска из индекса. |
| SearchDocumentsResultBase |
Ответ, содержащий результаты поиска из индекса. |
| SearchIndex |
Представляет определение индекса поиска, описывающее поля и поведение поиска индекса. |
| SearchIndexClientOptions |
Параметры клиента, используемые для настройки запросов API Когнитивного поиска. |
| SearchIndexStatistics |
Статистика по заданному индексу. Статистика собирается периодически и не гарантируется всегда быть up-to-date. |
| SearchIndexer |
Представляет индексатор. |
| SearchIndexerClientOptions |
Параметры клиента, используемые для настройки запросов API Когнитивного поиска. |
| SearchIndexerDataContainer |
Представляет сведения о сущности (например, таблице SQL Azure или коллекции CosmosDB), которая будет индексирована. |
| SearchIndexerDataNoneIdentity |
Очищает свойство удостоверения источника данных. |
| SearchIndexerDataSourceConnection |
Представляет определение источника данных, которое можно использовать для настройки индексатора. |
| SearchIndexerDataUserAssignedIdentity |
Указывает удостоверение для используемого источника данных. |
| SearchIndexerError |
Представляет ошибку индексирования на уровне элемента или документа. |
| SearchIndexerIndexProjection |
Определение дополнительных проекций для вторичных индексов поиска. |
| SearchIndexerIndexProjectionParameters |
Словарь свойств конфигурации для проекции индекса. Каждое имя — это имя определенного свойства. Каждое значение должно быть примитивным типом. |
| SearchIndexerIndexProjectionSelector |
Описание того, какие данные следует хранить в указанном индексе поиска. |
| SearchIndexerKnowledgeStore |
Определение дополнительных проекций для больших двоичных объектов Azure, таблиц или файлов, обогащенных данных. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Абстрактный класс для совместного использования свойств между конкретными селекторами. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Определение проекции для хранения данных в файлах Azure. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Определение проекции для хранения данных в BLOB-объекте Azure. |
| SearchIndexerKnowledgeStoreParameters |
Словарь свойств конфигурации для конкретного хранилища знаний. Каждое имя — это имя определенного свойства. Каждое значение должно быть примитивным типом. |
| SearchIndexerKnowledgeStoreProjection |
Объект контейнера для различных селекторов проекций. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Абстрактный класс для совместного использования свойств между конкретными селекторами. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Описание того, какие данные следует хранить в таблицах Azure. |
| SearchIndexerLimits | |
| SearchIndexerSkillset |
Список навыков. |
| SearchIndexerStatus |
Представляет текущее состояние и журнал выполнения индексатора. |
| SearchIndexerWarning |
Представляет предупреждение уровня элемента. |
| SearchIndexingBufferedSenderOptions |
Параметры searchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Ключ шифрования, управляемый клиентом, в Azure Key Vault. Ключи, которые создаются и управляются, можно использовать для шифрования или расшифровки неактивных данных в Когнитивном поиске Azure, таких как индексы и карты синонимов. |
| SearchServiceStatistics |
Ответ от запроса статистики службы. В случае успешного выполнения он включает счетчики уровня обслуживания и ограничения. |
| SearchSuggester |
Определяет, как API предложения должен применяться к группе полей в индексе. |
| SemanticConfiguration |
Определяет определенную конфигурацию, используемую в контексте семантических возможностей. |
| SemanticField |
Поле, используемое в рамках семантической конфигурации. |
| SemanticPrioritizedFields |
Описывает поля заголовка, содержимого и ключевых слов, которые будут использоваться для семантического ранжирования, подписей, выделений и ответов. |
| SemanticSearch |
Определяет параметры индекса поиска, влияющего на семантические возможности. |
| SemanticSearchOptions |
Определяет параметры для семантических запросов поиска |
| SentimentSkill |
Анализ положительных отрицательных тональности текста, оцененный как значение с плавающей запятой в диапазоне от нуля до 1. |
| SentimentSkillV3 |
Используя API анализа текста, вычисляет неструктурированный текст и для каждой записи предоставляет метки тональности (например, "отрицательные", "нейтральные" и "положительные") на основе самой высокой оценки достоверности, найденной службой на уровне предложения и документа. |
| ServiceCounters |
Представляет счетчики ресурсов уровня обслуживания и квоты. |
| ServiceLimits |
Представляет различные ограничения уровня обслуживания. |
| ShaperSkill |
Навык изменения выходных данных. Он создает сложный тип для поддержки составных полей (также известных как многопартийные поля). |
| ShingleTokenFilter |
Создает сочетания маркеров в виде одного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| Similarity |
Базовый тип для алгоритмов сходства. Алгоритмы сходства используются для вычисления показателей, которые связывают запросы с документами. Чем выше оценка, тем более релевантный документ относится к этому конкретному запросу. Эти оценки используются для ранжирования результатов поиска. |
| SimpleField |
Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля. |
| SnowballTokenFilter |
Фильтр, который стебляет слова с помощью созданного сноубола стебля. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Определяет политику обнаружения удаления данных, реализующую стратегию обратимого удаления. Он определяет, следует ли удалять элемент на основе значения указанного столбца обратимого удаления. |
| SplitSkill |
Навык разделения строки на фрагменты текста. |
| SqlIntegratedChangeTrackingPolicy |
Определяет политику обнаружения изменений данных, которая фиксирует изменения с помощью функции встроенного отслеживания изменений базы данных SQL Azure. |
| StemmerOverrideTokenFilter |
Предоставляет возможность переопределить другие фильтры с использованием пользовательских фильтров на основе словаря. Все термины, связанные с словарем, будут помечены как ключевые слова, чтобы они не были стеблированы с помощью стволовых модулей вниз по цепочке. Необходимо поместить перед любыми фильтрами с использованием стволовых элементов. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| StemmerTokenFilter |
Фильтр для конкретного языка. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| StopAnalyzer |
Делит текст на небуквенный; Применяет фильтры маркеров стоп-слов и строчных регистров. Этот анализатор реализуется с помощью Apache Lucene. |
| StopwordsTokenFilter |
Удаляет слова остановки из потока маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| SuggestDocumentsResult |
Ответ, содержащий результаты запроса предложения из индекса. |
| SuggestRequest |
Параметры для фильтрации, сортировки, нечеткого сопоставления и других вариантов поведения запросов. |
| SynonymMap |
Представляет определение карты синонимов. |
| SynonymTokenFilter |
Соответствует синонимам одного или нескольких слов в потоке маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| TagScoringFunction |
Определяет функцию, которая повышает оценку документов со строковыми значениями, соответствующими заданному списку тегов. |
| TagScoringParameters |
Предоставляет значения параметров функции оценки тегов. |
| TextTranslationSkill |
Навык перевода текста с одного языка на другой. |
| TextWeights |
Определяет весы в полях индекса, для которых совпадения должны повысить оценку в поисковых запросах. |
| TruncateTokenFilter |
Усечение терминов до определенной длины. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| UaxUrlEmailTokenizer |
Маркеризирует URL-адреса и сообщения электронной почты в виде одного маркера. Этот токенизатор реализуется с помощью Apache Lucene. |
| UniqueTokenFilter |
Фильтрует маркеры с тем же текстом, что и предыдущий маркер. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
| VectorSearch |
Содержит параметры конфигурации, связанные с векторным поиском. |
| VectorSearchOptions |
Определяет параметры запросов поиска векторов |
| VectorSearchProfile |
Определяет сочетание конфигураций для использования с векторным поиском. |
| VectorizableTextQuery |
Параметры запроса, используемые для векторного поиска, если задано текстовое значение, которое необходимо векторизировать. |
| VectorizedQuery |
Параметры запроса, используемые для поиска векторов при предоставлении необработанного векторного значения. |
| WebApiParameters |
Задает свойства для подключения к определяемой пользователем векторизаторе. |
| WebApiSkill |
Навык, который может вызывать конечную точку веб-API, позволяя расширить набор навыков, вызывая пользовательский код. |
| WebApiVectorizer |
Задает определяемый пользователем векторизатор для создания векторного внедрения строки запроса. Интеграция внешнего векторизатора достигается с помощью пользовательского интерфейса веб-API набора навыков. |
| WordDelimiterTokenFilter |
Разбивает слова на вложенные слова и выполняет необязательные преобразования в группах подслугов. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
Псевдонимы типа
| AnalyzeTextOptions |
Параметры анализа текстовой операции. |
| AutocompleteMode |
Определяет значения для autocompleteMode. |
| AutocompleteOptions |
Параметры получения текста завершения для частичного searchText. |
| AzureOpenAIModelName |
Определяет значения для AzureOpenAIModelName. Известные значения, поддерживаемые службой
text-embedding-ada-002 |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Содержит возможные случаи для CharFilter. |
| CharFilterName |
Определяет значения для CharFilterName. Известные значения, поддерживаемые службойhtml_strip: фильтр символов, который пытается удалить конструкции HTML. См. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| CjkBigramTokenFilterScripts |
Определяет значения для CjkBigramTokenFilterScripts. |
| CognitiveServicesAccount |
Содержит возможные случаи для CognitiveServicesAccount. |
| ComplexDataType |
Определяет значения для ComplexDataType. Возможные значения: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
| CountDocumentsOptions |
Параметры выполнения операции подсчета в индексе. |
| CreateDataSourceConnectionOptions |
Параметры для создания операции источника данных. |
| CreateIndexOptions |
Параметры создания операции индекса. |
| CreateIndexerOptions |
Параметры создания операции индексатора. |
| CreateSkillsetOptions |
Параметры для создания операции набора навыков. |
| CreateSynonymMapOptions |
Параметры создания операции сопоставления синонимов. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Содержит возможные случаи для DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Содержит возможные случаи для DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Параметры операции удаления документов. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Определяет значения для DocumentIntelligenceLayoutSkillChunkingUnit. Известные значения, поддерживаемые службойcharacters: Указывает фрагмент по символам. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Определяет значения для DocumentIntelligenceLayoutSkillExtractionOptions. Известные значения, поддерживаемые службой
images: укажите, что содержимое изображения должно быть извлечено из документа. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Определяет значения для DocumentIntelligenceLayoutSkillMarkdownHeaderDepth. Известные значения, поддерживаемые службой
h1: Уровень заголовка 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Определяет значения для DocumentIntelligenceLayoutSkillOutputFormat. Известные значения, поддерживаемые службой
text: Укажите формат вывода в виде текста. |
| DocumentIntelligenceLayoutSkillOutputMode |
Определяет значения для DocumentIntelligenceLayoutSkillOutputMode. Известные значения, поддерживаемые службойoneToMany: Укажите, что вывод должен быть проанализирован как 'oneToMany'. |
| EdgeNGramTokenFilterSide |
Определяет значения для EdgeNGramTokenFilterSide. |
| EntityCategory | |
| EntityRecognitionSkillLanguage | |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к исчерпывающим алгоритму KNN, используемому во время запроса, который будет выполнять поиск методом подбора по всему векторному индексу. |
| ExtractDocumentKey | |
| GetDataSourceConnectionOptions |
Параметры для получения операции источника данных. |
| GetIndexOptions |
Параметры для операции получения индекса. |
| GetIndexStatisticsOptions |
Параметры операции получения статистики индекса. |
| GetIndexerOptions |
Параметры для операции индексатора. |
| GetIndexerStatusOptions |
Параметры для операции состояния индексатора. |
| GetServiceStatisticsOptions |
Параметры получения статистики службы. |
| GetSkillSetOptions |
Параметры для операции набора навыков. |
| GetSynonymMapsOptions |
Параметры операции получения карт синонимов. |
| HnswAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к алгоритму hnsw, приблизительному ближайшему алгоритму соседей, используемому во время индексирования. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Определяет значения для IndexActionType. |
| IndexDocumentsAction |
Представляет действие индекса, которое работает с документом. |
| IndexIterator |
Итератор для перечисления индексов, существующих в службе поиска. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу на итерацию. |
| IndexNameIterator |
Итератор для перечисления индексов, существующих в службе поиска. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу на итерацию. |
| IndexProjectionMode |
Определяет значения для IndexProjectionMode. Известные значения, поддерживаемые службой
skipIndexingParentDocuments: исходный документ будет пропущен из записи в целевой индекс индексатора. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Определяет значения для IndexerExecutionStatus. |
| IndexerStatus |
Определяет значения для IndexerStatus. |
| KeyPhraseExtractionSkillLanguage | |
| LexicalAnalyzer |
Содержит возможные случаи для анализатора. |
| LexicalAnalyzerName |
Определяет значения для LexicalAnalyzerName. Известные значения, поддерживаемые службой
ar.microsoft: анализатор Майкрософт для арабского языка. |
| LexicalNormalizer |
Содержит возможные случаи для LexicalNormalizer. |
| LexicalNormalizerName |
Определяет значения для LexicalNormalizerName. Известные значения, поддерживаемые службой
asciifolding: преобразует алфавитные, числовые и символьные символы Юникода, которые не находятся в первых 127 символах ASCII (блок Юникода "Базовый латиница") в эквиваленты ASCII, если такие эквиваленты существуют. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Содержит возможные варианты для токенизатора. |
| LexicalTokenizerName |
Определяет значения для LexicalTokenizerName. Известные значения, поддерживаемые службой
классический: токенизатор на основе грамматики, подходящий для обработки большинства документов на языке Европы. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListDataSourceConnectionsOptions |
Параметры операции источников данных списка. |
| ListIndexersOptions |
Параметры операции индексаторов списка. |
| ListIndexesOptions |
Параметры операции индексов списка. |
| ListSkillsetsOptions |
Параметры операции набора навыков списка. |
| ListSynonymMapsOptions |
Параметры операции сопоставления синонимов списка. |
| MergeDocumentsOptions |
Параметры операции слияния документов. |
| MergeOrUploadDocumentsOptions |
Параметры операции слияния или отправки документов. |
| MicrosoftStemmingTokenizerLanguage |
Определяет значения для MicrosoftStemmingTokenizerLanguage. |
| MicrosoftTokenizerLanguage |
Определяет значения для MicrosoftTokenizerLanguage. |
| NarrowedModel |
Сужает тип модели, чтобы включить только выбранные поля |
| OcrLineEnding |
Определяет значения для OcrLineEnding. Известные значения, поддерживаемые службой
пробел: линии разделяются одним символом пробела. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Определяет значения для PhoneticEncoder. |
| QueryAnswer |
Значение, указывающее, следует ли возвращать ответы как часть ответа поиска.
Этот параметр действителен только в том случае, если тип запроса имеет значение "семантика". Если задано значение |
| QueryCaption |
Значение, указывающее, должны ли возвращаться заголовки в ответе на поиск. Этот параметр действителен только в том случае, если тип запроса имеет значение "семантика". Если задано, запрос возвращает заголовки, извлеченные из ключевых проходов в документах с наивысшим рейтингом. Если субтитры являются извлечением, выделение включается по умолчанию. Значение по умолчанию — none. |
| QueryType |
Определяет значения для QueryType. |
| RankingOrder |
Определяет значения для RankingOrder. Известные значения, поддерживаемые службой
BoostedRerankerScore: устанавливает порядок сортировки как BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Параметры операции индексатора сброса. |
| RunIndexerOptions |
Параметры выполнения операции индексатора. |
| ScoringFunction |
Содержит возможные случаи оценкиFunction. |
| ScoringFunctionAggregation |
Определяет значения для ScoringFunctionAggregation. |
| ScoringFunctionInterpolation |
Определяет значения для ScoringFunctionInterpolation. |
| ScoringStatistics |
Определяет значения для ScoringStatistics. |
| SearchField |
Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля. |
| SearchFieldArray |
Если |
| SearchFieldDataType |
Определяет значения для SearchFieldDataType. Известные значения, поддерживаемые службой:Edm.String: указывает, что поле содержит строку. Edm.Int32: указывает, что поле содержит 32-разрядное целое число со знаком. Edm.Int64: указывает, что поле содержит 64-разрядное целое число со знаком. Edm.Double: указывает, что поле содержит число с плавающей запятой двойной точности IEEE. Edm.Boolean: указывает, что поле содержит логическое значение (true или false). Edm.DateTimeOffset: указывает, что поле содержит значение даты и времени, включая сведения о часовом поясе. Edm.GeographyPoint: указывает, что поле содержит географическое расположение с точки зрения долготы и широты. Edm.ComplexType: указывает, что поле содержит один или несколько сложных объектов, которые, в свою очередь, имеют под поля других типов. Edm.Single: указывает, что поле содержит число с плавающей запятой с одной точностью. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Single). Edm.Half: указывает, что поле содержит полуточие с плавающей запятой. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Half). Edm.Int16: указывает, что поле содержит 16-разрядное целое число со знаком. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Int16). Edm.SByte: указывает, что поле содержит 8-разрядное целое число со знаком. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.SByte). Edm.Byte: указывает, что поле содержит 8-разрядное целое число без знака. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Byte). |
| SearchIndexerDataIdentity |
Содержит возможные случаи для SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Содержит возможные случаи для навыка. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Параметры searchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Параметры поиска SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Параметры поиска SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Параметры поиска SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Параметры searchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Итератор для результатов поиска патикулярного запроса. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу на итерацию. |
| SearchMode |
Определяет значения для SearchMode. |
| SearchOptions |
Параметры фиксации полного запроса поиска. |
| SearchPick |
Глубоко выберите поля T с помощью допустимых путей OData когнитивного поиска $select. |
| SearchRequestOptions |
Параметры фильтрации, сортировки, фасетирования, разбиения по страницам и других поведении поисковых запросов. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Содержит документ, найденный поисковым запросом, а также связанные метаданные. |
| SelectArray |
Если |
| SelectFields |
Создает объединение допустимых путей OData когнитивного поиска $select для T с помощью обхода после заказа дерева полей, корневого в T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType | |
| SentimentSkillLanguage | |
| SimilarityAlgorithm |
Содержит возможные случаи сходства. |
| SnowballTokenFilterLanguage |
Определяет значения для SnowballTokenFilterLanguage. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Определяет значения для StemmerTokenFilterLanguage. |
| StopwordsList |
Определяет значения для StopwordsList. |
| SuggestNarrowedModel | |
| SuggestOptions |
Параметры получения предложений на основе searchText. |
| SuggestResult |
Результат, содержащий документ, найденный запросом предложения, а также связанные метаданные. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Определяет значения для TokenCharacterKind. |
| TokenFilter |
Содержит возможные случаи для TokenFilter. |
| TokenFilterName |
Определяет значения для TokenFilterName. Известные значения, поддерживаемые службой
arabic_normalization: фильтр маркеров, который применяет арабский нормализатор для нормализации ортографии. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Параметры операции отправки документов. |
| VectorEncodingFormat |
Определяет значения для VectorEncodingFormat. Известные значения, поддерживаемые службойупакованные биты: формат кодирования, представляющий биты, упакованные в более широкий тип данных. |
| VectorFilterMode | |
| VectorQuery |
Параметры запроса для векторных и гибридных поисковых запросов. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и/или запроса. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Содержит параметры конфигурации, относящиеся к методу сжатия, используемому во время индексирования или запроса. |
| VectorSearchCompressionKind |
Определяет значения для VectorSearchCompressionKind. Известные значения, поддерживаемые службой
скалярная квантизация: Скалярная квантизация, тип метода сжатия. В скалярной квантизации исходные значения векторов сжимаются до более узкого типа путем дискретизации и представления каждого компонента вектора с помощью сокращенного набора квантизованных значений, тем самым уменьшая общий размер данных. |
| VectorSearchCompressionRescoreStorageMethod |
Определяет значения для VectorSearchCompressionRescoreStorageMethod. Известные значения, поддерживаемые службой
preserveOriginals: Этот параметр сохраняет исходные векторы полной точности. Выберите этот параметр для максимальной гибкости и высокого качества сжатых результатов поиска. Это использует больше хранилища, но позволяет переопределять и перезагрегать. |
| VectorSearchCompressionTarget |
Определяет значения для VectorSearchCompressionTarget. Известные значения, поддерживаемые службойint8 |
| VectorSearchVectorizer |
Содержит параметры конфигурации по векторным запросам вектора текста. |
| VectorSearchVectorizerKind |
Определяет значения для VectorSearchVectorizerKind. Известные значения, поддерживаемые службой
azureOpenAI. Создание внедрения с помощью ресурса Azure OpenAI во время запроса. |
| VisualFeature | |
Перечисления
Функции
| create |
Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS. |
| odata(Template |
Экранирует выражение фильтра odata, чтобы избежать ошибок с помощью строковых литерала. Пример использования:
Дополнительные сведения о поддерживаемом синтаксисе см. в статье https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Сведения о функции
createSynonymMapFromFile(string, string)
Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Параметры
- name
-
string
Имя Синоним-карты.
- filePath
-
string
Путь к файлу, который содержит синонимы (разделяется новыми строками)
Возвращаемое значение
Promise<SynonymMap>
Объект SynonymMap
odata(TemplateStringsArray, unknown[])
Экранирует выражение фильтра odata, чтобы избежать ошибок с помощью строковых литерала. Пример использования:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Дополнительные сведения о поддерживаемом синтаксисе см. в статье https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Параметры
- strings
-
TemplateStringsArray
Массив строк для выражения
- values
-
unknown[]
Массив значений для выражения
Возвращаемое значение
string