Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Примечание.
Поддержка этой версии databricks Runtime закончилась. Сведения о дате окончания поддержки см . в журнале завершения поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 10.1 и Databricks Runtime 10.1 Photon на базе Apache Spark 3.2.0. Databricks выпустила эту версию в ноябре 2021 года. Photon сейчас находится в режиме общедоступной предварительной версии.
Новые функции и внесенные улучшения
- Новые параметры разностных таблиц для сжатия небольших файлов
- Новые метрики группы строк для сканирования запросов Parquet
- Trigger.AvailableNow для запросов разностных исходных потоков
- Trigger.AvailableNow для автоматического загрузчика
- Разностная поддержка конфигураций файловой системы Hadoop, передаваемых через параметры кадров данных
- Асинхронная контрольная точка состояния теперь поддерживается в заданиях потоковой передачи с отслеживанием состояния (общедоступная предварительная версия)
- Sparklyr со сквозной передачей учетных данных
- Данные Databricks Utilities обобщают контроль точности (общедоступная предварительная версия)
- Теперь записные книжки Azure Databricks можно использовать с ядром IPython
- Новые функции в Spark SQL
Новые параметры разностных таблиц для сжатия небольших файлов
Свойство delta.autoOptimize.autoCompact
разностной таблицы теперь принимает новые значения auto
и legacy
в дополнение к существующим значениям true
и false
. Если задано значение auto
(рекомендуется), автоматическое сжатие использует улучшенные значения по умолчанию, например, значение 32 МБ в качестве целевого размера файла (хотя действие по умолчанию в будущем может измениться). Если задано значение legacy
или true
, автоматическое сжатие использует значение 128 МБ в качестве целевого для размера файла.
Вместо задания этого свойства для отдельной таблицы можно задать для конфигурации spark.databricks.delta.autoCompact.enabled
значение auto
, legacy
или true
, чтобы включить автоматическое сжатие для всех разностных таблиц. Эта конфигурация имеет приоритет над связанным свойством таблицы во время текущего сеанса.
Размер целевого файла для автоматического сжатия можно контролировать с помощью конфигурации spark.databricks.delta.autoCompact.maxFileSize
.
Дополнительные сведения об автоматическом уплотнении см. в разделе "Автоматическое сжатие" для Delta Lake в Azure Databricks.
Новые метрики группы строк для сканирования запросов Parquet
Запросы со сканированием Parquet теперь отображают метрики группы строк в пользовательском интерфейсе Spark. Ниже перечислены эти метрики групп строк.
- общее число групп строк Parquet
- число считанных групп строк Parquet
Trigger.AvailableNow для запросов разностных исходных потоков
Это изменение поддерживает новый тип триггера для разностных запросов с исходными потоками в Scala: Trigger.AvailableNow
. Он похож на процесс Trigger.Once
, который обрабатывает все доступные данные и останавливает запрос. Однако Trigger.AvailableNow
обеспечивает лучшую масштабируемость, поскольку данные могут обрабатываться в нескольких пакетах, а не в одном. Это изменение не приводит к появлению нового интерфейса, а реализует существующий API Spark. Этот триггер также поддерживает все параметры ограничения скорости, которые уже поддерживаются Delta в качестве источника.
Пример:
spark.readStream
.format("delta")
.option("maxFilesPerTrigger", "1")
.load(inputDir)
.writeStream
.trigger(Trigger.AvailableNow)
.option("checkpointLocation", checkpointDir)
.start()
Описание Trigger.AvailableNow
см. в статье об автозагрузчике.
Trigger.AvailableNow для автоматического загрузчика
Trigger.AvailableNow
— новый режим триггера потоковой передачи, аналогичный Trigger.Once
.
Trigger.Once
обрабатывает все доступные данные, а затем останавливает запрос.
Trigger.AvailableNow
обеспечивает лучшую масштабируемость, поскольку данные могут обрабатываться в нескольких пакетах, а не в одном. Автозагрузчик теперь поддерживает Trigger.AvailableNow
как в режиме списков каталогов, так и в режиме уведомления файлов для Scala. Описание Trigger.AvailableNow
см. в статье об автозагрузчике.
Разностная поддержка конфигураций файловой системы Hadoop, передаваемых через параметры кадров данных
Как и в случае с Parquet, Delta теперь поддерживает чтение конфигураций файловой системы Hadoop из параметров DataFrameReader
и DataFrameWriter
при чтении или написании таблицы с помощью DataFrameReader.load(path)
или DataFrameWriter.save(path)
. См. раздел "Настройка учетных данных хранилища Delta".
Асинхронная контрольная точка состояния теперь поддерживается в заданиях потоковой передачи с отслеживанием состояния (общедоступная предварительная версия)
Асинхронная контрольная точка состояния — это новая функция, которая потенциально сокращает сквозную микропакетную задержку в заданиях потоковой передачи с отслеживанием состояния с большими обновлениями состояния. См . асинхронную контрольную точку состояния для запросов с отслеживанием состояния.
Sparklyr со сквозной передачей учетных данных
Теперь вы можете использовать API sparklyr для чтения и записи данных в облачном хранилище с помощью сквозной передачи учетных данных. Эта функция ограничена стандартными кластерами с доступом только для одного пользователя. См. раздел "Доступ к Azure Data Lake Storage" с помощью сквозного руководства учетных данных Microsoft Entra ID (устаревшая версия).
Данные Databricks Utilities обобщают контроль точности (общедоступная предварительная версия)
Новый параметр precise
для dbutils.data.summarize
управляет точностью сводных результатов. Если для параметра precise
задано значение false (значение по умолчанию), то сводка возвращает приблизительные результаты для числа различных объектов, процентилей и частых счетчиков элементов. Если для параметра precise
задано значение true, то сводки теперь вычисляются с точностью различных объектов и частыми счетчиками элементов с более точными оценками процентилей. См. команду обобщения (dbutils.data.summarize).
Теперь записные книжки Azure Databricks можно использовать с ядром IPython
Теперь можно настроить кластер Azure Databricks для выполнения кода Python с помощью ядра IPython. Использование ядра IPython в Azure Databricks добавляет поддержку инструментов отображения и вывода IPython. Кроме того, ядро IPython записывает выходные данные stdout и stderr дочерних процессов, созданных в записной книжке, что позволяет включить эти данные в результаты команд записной книжки.
Дополнительные сведения см. в разделе Ядро IPython.
Новые функции в Spark SQL
Для работы с данными в каталоге Unity (предварительная версия) были добавлены следующие объекты и команды.
- Внешние расположения
- ALTER CATALOG
- ALTER CREDENTIAL
- ИЗМЕНИТЬ МЕСТОПОЛОЖЕНИЕ
- CREATE CATALOG
- СОЗДАТЬ МЕСТОПОЛОЖЕНИЕ
- CREATE RECIPIENT
- DESCRIBE CATALOG
- DESCRIBE CREDENTIAL
- ОПИСАТЬ МЕСТОПОЛОЖЕНИЕ
- DROP CATALOG
- DROP CREDENTIAL
- МЕСТО СБРОСА
- LIST
- SHOW CATALOGS
- SHOW CREDENTIALS
- ОТОБРАЖЕНИЕ РАСПОЛОЖЕНИЙ
- USE CATALOG
В Delta Sharing (предварительная версия) были добавлены следующие команды, позволяющие обмениваться данными только для чтения с получателями за пределами вашей организации.
- Деление
- ALTER SHARE
- CREATE SHARE
- DESCRIBE RECIPIENT
- DESCRIBE SHARE
- DROP RECIPIENT
- DROP SHARE
- GRANT ПОДЕЛИТЬСЯ
- REVOKE ПОДЕЛИТЬСЯ
- SHOW ALL IN SHARE
- SHOW RECIPIENTS
- SHOW SHARES
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Исправления ошибок
- Исправлено состояние гонки, которое могло привести к сбою запроса с использованием
IOException
в качествеNo FileSystem for scheme
, или привести к тому, что изменения вsparkContext.hadoopConfiguration
не вступят в силу в запросах.
Обновления библиотек
- Обновленные библиотеки Python:
- filelock с 3.0.12 до 3.3.1
- koalas с 1.8.1 до 1.8.2
- plotly с 5.1.0 до 5.3.0
- Обновленные библиотеки R:
- bslib с 0.3.0 до 0.3.1
- caret с 6.0-88 до 6.0-90
- cpp11 с 0.3.1 до 0.4.0
- data.table с 1.14.0 до 1.14.2
- desc с 1.3.0 до 1.4.0
- diffobj с 0.3.4 до 0.3.5
- digest с 0.6.27 до 0.6.28
- generics с 0.1.0 до 0.1.1
- hms с 1.1.0 до 1.1.1
- knitr с 1.34 до 1.36
- lattice с 0.20-44 до 0.20-45
- lifecycle с 1.0.0 до 1.0.1
- lubridate с 1.7.10 до 1.8.0
- mgcv с 1.8-37 до 1.8-38
- mime с 0.11 до 0.12
- pkgload с 1.2.2 до 1.2.3
- progressr с 0.8.0 до 0.9.0
- rcmdcheck с 1.3.3 до 1.4.0
- readr с 2.0.1 до 2.0.2
- recipes с 0.1.16 до 0.1.17
- remotes с 2.4.0 до 2.4.1
- rlang с 0.4.11 до 0.4.12
- rvest с 1.0.1 до 1.0.2
- shiny с 1.6.0 до 1.7.1
- stringi с 1.7.4 до 1.7.5
- testthat с 3.0.4 до 3.1.0
- tidyr с 1.1.3 до 1.1.4
- tinytex с 0.33 до 0.34
- usethis с 2.0.1 до 2.1.2
- xfun с 0.26 до 0.27
- Обновленные библиотеки Java:
- com.zaxxer.HikariCP с 3.1.0 до 4.0.3
Apache Spark
Databricks Runtime 10.1 включает Apache Spark 3.2.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 10.0 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- [SPARK-37037] [SQL] Улучшение сортировки массива байтов путем унификации функции compareTo UTF8String и ByteArray
- [Spark-37091] [R] SystemRequirements включают Java < 18
- [SPARK-37041] [SQL] Бэкпорт HIVE-15025: поддержка Secure-Socket-Layer (SSL) для HMS
- [SPARK-37098] [SQL] Изменение свойств таблицы должно сделать кэш недействительным
- [SPARK-36992] [SQL] Улучшение производительности сортировки массива байтов путем объединения функции getPrefix UTF8String и ByteArray
- [SPARK-37047] [SQL] Добавление функций lpad и rpad для двоичных строк
- [SPARK-37076] [SQL] явно Реализация StructType.toString для Scala 2.13
- [SPARK-37075] [SQL] Перемещение построения выражений UDAF из sql/catalyst в sql/core
- [spark-37084] [SQL] Настройка spark.sql.files.openCostInBytes на bytesConf
- [SPARK-37088] [ PYSPARK][sql] Поток записи не должен получать доступ к входным данным после возврата слушателя завершения задачи
- [SPARK-37069] [SQL] Правильный резервный вариант, когда Hive.getWithoutRegisterFns недоступен
- [Spark-37050] [Python] Инструкции по установке обновления Conda
- [SPARK-37067] [SQL] Использование ZoneId.of() для обработки строки часового пояса в DatetimeUtils
- [SPARK-35925] [SQL] Поддержка DayTimeIntervalType в функции width-bucket
- [SPARK-35926] [SQL] Добавлена поддержка YearMonthIntervalType для width_bucket
-
[SPARK-35973] [SQL] Добавлена команда
SHOW CATALOGS
- [SPARK-36922] [SQL] Функции SIGN / SIGNUM должны поддерживать интервалы ANSI
- [Spark-37078] [CORE] Поддержка старых конструкторов Sink с 3 параметрами
- [SPARK-37061] [SQL] CustomMetrics при использовании внутренних классов
- [Spark-35918] [AVRO] Унификация обработки несоответствия схемы для чтения / записи и улучшения сообщений об ошибках
- [SPARK-36871] [SQL] Миграция CreateViewStatement в команду v2
- [SPARK-36898] [SQL] Настраиваемый коэффициент объединения хэшей в случайном порядке
-
[SPARK-36921] [SQL] Поддержка интервалов ANSI по
DIV
- [SPARK-36794] [SQL] Игнорирование дублирующихся ключей соединения при построении отношения для перемешиваемого хэш-соединения SEMI / ANTI
- [SPARK-36867] [SQL] Исправление сообщения об ошибке с помощью псевдонима GROUP BY
- [SPARK-36914] [SQL] Реализация dropIndex и listIndexes в JDBC (диалект MySQL)
- [SPARK-35531] [SQL] Непосредственная передача таблицы hive в HiveClient при вызове getPartitions, чтобы избежать ненужного преобразования из HiveTable — > CatalogTable — > HiveTable
- [SPARK-36718] [SQL] Свернуть проекты только в том случае, если мы не повторяем дорогостоящие выражения
- [SPARK-37046] [SQL]: Изменение представления не сохраняет регистр столбцов
- [SPARK-36978] [SQL] Правило InferConstraints должно создавать ограничения IsNotNull для доступного вложенного поля вместо корневого вложенного типа
- [Spark-37052] [CORE] Spark должен передавать аргумент –verbose основному классу только тогда, когда это оболочка sql
- [SPARK-37017] [SQL] Уменьшение области действия синхронизации, чтобы предотвратить потенциальную взаимоблокировку
- [SPARK-37032] [SQL] Неработающая ссылка на синтаксис SQL на странице справочника SQL
- [SPARK-36905] [SQL] Чтение представлений hive без явных имен столбцов
- [SPARK-36678] Миграция SHOW TABLES использовать команду версии 2 по умолчанию
- [SPARK-36943] [SQL] Улучшение читаемости сообщения об ошибке отсутствующего столбца
- [SPARK-36980] [SQL] Вставка запроса поддержки с CTE
- [SPARK-37001] [SQL] Отключение двух уровней карт для окончательной агрегации хэшей по умолчанию
-
[SPARK-36970] [SQL] Отключенный вручную формат
B
функцииdate_format
для обеспечения совместимости Java 17 с Java 8 - [SPARK-36546] [SQL] Добавление поддержки массивов в объединение по имени
- [SPARK-36979] [SQL] Правило RewriteLateralSubquery в nonExcludableRules
- [SPARK-36949] [SQL] Запрет таблиц поставщиков Hive с интервалами ANSI
- [SPARK-36849] [SQL] Миграция UseStatement в структуру команд v2
- [SPARK-36868] [SQL] Миграция CreateFunctionStatement в структуру команд v2
-
[SPARK-36841] [SQL] Добавление синтаксиса ansi
set catalog xxx
для изменения текущего каталога - [SPARK-36821] [SQL] Класс ColumnarBatch расширяемый — дополнение
- [SPARK-36963] [SQL] Добавление max_by/min_by в sql.functions
- [SPARK-36913] [SQL] Реализация createIndex и IndexExists в DS V2 JDBC (диалект MySQL)
- [SPARK-36848] [SQL] Миграция ShowCurrentNamespaceStatement в структуру команд v2
- [SPARK-36526] [SQL] Поддержка индекса DSV2: добавление интерфейса supportsIndex
- [SPARK-36960] [SQL] Фильтры Pushdown со значениями интервала ANSI в ORC
- [SPARK-36929] [SQL] Удаление неиспользуемого метода EliminateSubqueryAliasesSuite#assertEquivalent
- [SPARK-36931] [SQL] Поддержка чтения и записи интервалов ANSI из / в источники данных ORC
- [SPARK-34980] [SQL] Поддержка секционирования объединения путем объединения в AQE
- [SPARK-36809] [SQL] Удаление широковещательной рассылки для InSubqueryExec, используемой в DPP
- [SPARK-36813] [ SQL][python] Предложить инфраструктуру as-of присоединения и реализовать ps.merge_asof
- [SPARK-36918] [SQL] Игнорирование типов при сравнении структур для unionByName
- [SPARK-36891] [SQL] Рефакторинг SpecificParquetRecordReaderBase и добавление большего охвата векторизованного декодирования Parquet
-
[SPARK-36920] [SQL] Поддержка интервалов ANSI
ABS()
- [SPARK-36888] [SQL] Добавление тестовых случаев для функции sha2
-
[SPARK-36889] [SQL] Соблюдение
spark.sql.parquet.filterPushdown
построителем сканирования v2 parquet - [SPARK-36830] [SQL] Поддержка чтения и записи интервалов ANSI из / в источники данных JSON
- [SPARK-36870] [SQL] Введение класса ошибки INTERNAL_ERROR
- [SPARK-36831] [SQL] Поддержка чтения и записи интервалов ANSI из / в источники данных CSV.
- [SPARK-36550] [SQL] Причина распространения при сбое отражения UDF
- [SPARK-36866] [SQL] Фильтры Pushdown со значениями интервала ANSI для parquet
- [SPARK-33832] [SQL] Принудительное упрощение и улучшение кода соединения с отклонением
- [SPARK-36642] [SQL] Добавление df.withMetadata pyspark API
- [SPARK-35765] [SQL] Отдельные агрегаторы не чувствительны к дублированию
- [SPARK-36825] [SQL] Чтение и запись кадров данных с интервалами ANSI из / в файлы parquet
- [SPARK-36829] [SQL] Рефакторинг проверки значений NULL для collectionOperators
- [SPARK-32712] [SQL] Поддержка записи таблицы с сегментами Hive (форматы файлов Hive с хэшем Hive)
- [SPARK-36797] [SQL] Объединение должно разрешать вложенные столбцы как столбцы верхнего уровня
- [SPARK-36838] [SQL] Повышение производительности сгенерированного InSet кода
- [SPARK-36683] [SQL] Добавлены новые встроенные функции SQL: SEC и CSC
- [SPARK-36721] [SQL] Упрощение логических равенств, если одна сторона литеральна
- [SPARK-36760] [SQL] Добавление интерфейса SupportsPushDownV2Filters
- [SPARK-36652] [SQL] Выбор динамического соединения AQE не должен применяться к неэквивалентному соединению
- [SPARK-36745] [SQL] ExtractEquiJoinKeys должен возвращать исходные предикаты для ключей соединения
- [SPARK-36107] [SQL] Рефакторинг первого набора из 20 ошибок выполнения запроса для использования классов ошибок
- [SPARK-32709] [SQL] Поддержка записи таблицы с сегментами Hive (формат Parquet / ORC с хэшем Hive)
- [SPARK-36735] [SQL] Настройка издержек кэшированного отношения для DPP
- [SPARK-33832] [SQL] Поддержка оптимизации асимметричного соединения, даже если вводится дополнительное перемешивание
- [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec должен использовать все условия вместо неэквивалентных условий
- [SPARK-35221] [SQL] Добавление проверки поддерживаемых подсказок присоединения
- [SPARK-36814] [SQL] Класс ColumnarBatch расширяемый
- [SPARK-36663] [SQL] Поддержка имен столбцов, состоящих только из чисел, в источниках данных ORC
- [SPARK-36751] [ SQL][python][R] Добавление API-интерфейсов bit/octet_length в Scala, Python и R
- [SPARK-36733] [SQL] Исправление проблемы производительности в SchemaPruning, когда структура имеет много полей
- [SPARK-36724] [SQL] Поддержка timestamp_ntz в качестве типа столбца времени для SessionWindow
- [SPARK-36556] [SQL] Добавление фильтров DSV2
- [SPARK-36687] [ SQL][core] Переименуйте классы ошибок с _ERROR суффиксом
- [SPARK-35803] [SQL] Поддержка DataSource V2 CreateTempViewUsing
- [SPARK-36642] [SQL] Добавление df.withMetadata: синтаксис для обновления метаданных кадра данных
Обновления в рамках обслуживания
См. Служебные обновления Databricks Runtime 10.1.
Системная среда
- Операционная система: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14.
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Установленные библиотеки Python
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | директории приложений | 1.4.4 | argon2-cffi | 20.1.0 |
асинхронный генератор | 1,10 | атрибуты | 20.3.0 | Обратный вызов | 0.2.0 |
отбеливатель | 3.3.0 | boto3 | 1.16.7 | botocore | 1.19.7 |
сертификат | 2020.12.5 | cffi | 1.14.5 | chardet | 4.0.0 |
велосипедист | 0.10.0 | Cython | 0.29.23 | dbus-python | 1.2.16 |
декоратор | 5.0.6 | defusedxml | 0.7.1 | Дистлиб | 0.3.3 |
информация о дистрибутиве | 0.23ubuntu1 | точки входа | 0,3 | Обзор аспектов | 1.0.0 |
файловая блокировка | 3.3.1 | IDNA | 2,10 | ipykernel | 5.3.4 |
ipython | 7.22.0 | ipython-genutils (утилиты для iPython) | 0.2.0 | ipywidgets (виджеты для IPython) | 7.6.3 |
джедаи | 0.17.2 | Джинджа2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema (JSON-схема) | 3.2.0 | Джупитер-клиент | 6.1.12 |
jupyter-core (ядро Jupyter) | 4.7.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-мини-приложения | 1.0.0 |
Кивисолвер | 1.3.1 | Коалы | 1.8.2 | MarkupSafe | 2.0.1 |
matplotlib | 3.4.2 | Мистун | 0.8.4 | nbclient | 0.5.3 |
Перекодировщик nbconvert | 6.0.7 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
записная книжка | 6.3.0 | numpy (библиотека для работы с массивами и матрицами в Python) | 1.19.2 | во внешнем виде | 20,9 |
Панды | 1.2.4 | пандокфильтры | 1.4.3 | Парсо | 0.7.0 |
простак | 0.5.1 | pexpect (библиотека Python для автоматизации взаимодействия с приложениями) | 4.8.0 | Пиклшэр | 0.7.5 |
Подушка | 8.2.0 | пит | 21.0.1 | график | 5.3.0 |
prometheus-client | 0.10.1 | prompt-toolkit (инструментарий подсказок) | 3.0.17 | protobuf (протобуф) | 3.17.2 |
psycopg2 | 2.8.5 | ptyprocess | 0.7.0 | pyarrow | 4.0.0 |
pycparser | 2,20 | Пигменты | 2.8.1 | PyGObject | 3.36.0 |
pyparsing (библиотека для синтаксического анализа в Python) | 2.4.7 | пирсистент | 0.17.3 | python-apt | 2.0.0+ubuntu0.20.4.6 |
python-dateutil (библиотека для работы с датами и временем в Python) | 2.8.1 | pytz (библиотека Python для работы с часовыми поясами) | 2020.5 | pyzmq | 20.0.0 |
Запросы | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn (библиотека машинного обучения) | 0.24.1 | scipy (библиотека Python) | 1.6.2 | мореборн | 0.11.1 |
Send2Trash | 1.5.0 | setuptools (пакет для установки и управления Python-пакетами) | 52.0.0 | шесть | 1.15.0 |
ssh-import-id (импортировать идентификатор SSH) | 5,10 | statsmodels (библиотека Python для статистического моделирования) | 0.12.2 | упорство | 8.0.1 |
закончено | 0.9.4 | путь тестирования | 0.4.4 | Threadpoolctl | 2.1.0 |
торнадо | 6.1 | Трейтлеты | 5.0.5 | автоматические обновления без участия пользователя | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth (ширина символа в Unicode) | 0.2.5 |
веб-энкодинги | 0.5.1 | колесо | 0.36.2 | widgetsnbextension | 3.5.1 |
Установленные библиотеки R
Библиотеки R устанавливаются из моментального снимка Microsoft CRAN от 26.10.2021.
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
аскпасс | 1,1 | утверждать, что | 0.2.1 | внутренние порты | 1.2.1 |
основа | 4.1.1 | base64enc | 0.1-3 | кусочек | 4.0.4 |
64-бит | 4.0.5 | большой двоичный объект | 1.2.2 | загрузка | 1.3-28 |
заваривать | 1.0–6 | жизнерадостность | 1.1.2 | метла | 0.7.9 |
bslib | 0.3.1 | кашемир | 1.0.6 | вызывающий объект | 3.7.0 |
крышка | 6,0–90 | целлрейнджер | 1.1.0 | хронометр | 2.3-56 |
класс | 7.3-19 | интерфейс командной строки (CLI) | 3.0.1 | клиппер | 0.7.1 |
кластер | 2.1.2 | codetools | 0.2-18 | цветовое пространство | 2.0-2 |
коммонмарк | 1,7 | компилятор | 4.1.1 | конфиг | 0.3.1 |
cpp11 | 0.4.0 | карандаш | 1.4.1 | учетные данные | 1.3.1 |
завиток | 4.3.2 | таблица данных | 1.14.2 | наборы данных | 4.1.1 |
ДБИ | 1.1.1 | dbplyr | 2.1.1 | описание | 1.4.0 |
средства разработки | 2.4.2 | diffobj | 0.3.5 | дайджест | 0.6.28 |
dplyr (пакет для обработки данных в R) | 1.0.7 | dtplyr | 1.1.0 | e1071 | 1.7-9 |
многоточие | 0.3.2 | оценивать | 0,14 | вентиляторы | 0.5.0 |
Farver | 2.1.0 | фастмап | 1.1.0 | fontawesome | 0.2.2 |
Forcats (форкатс) | 0.5.1 | foreach | 1.5.1 | иностранный | 0.8–81 |
кузница | 0.2.0 | fs | 1.5.0 | будущее | 1.22.1 |
future.apply | 1.8.1 | полоскать горло | 1.2.0 | Универсальные шаблоны | 0.1.1 |
Герт | 1.4.1 | ggplot2 | 3.3.5 | gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-2 | глобальные переменные | 0.14.0 |
клей | 1.4.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
Говер | 0.2.2 | графика | 4.1.1 | grDevices | 4.1.1 |
сеть | 4.1.1 | gridExtra | 2.3 | gsubfn | 0,7 |
гтабл | 0.3.0 | убежище | 2.4.3 | высокий | 0,9 |
HMS | 1.1.1 | htmltools | 0.5.2 | HTML-виджеты | 1.5.4 |
httpuv | 1.6.3 | ХТТР | 1.4.2 | hwriter | 1.3.2 |
hwriterPlus | 1.0-3 | удостоверения личности | 1.0.1 | ini | 0.3.1 |
ипред | 0.9-12 | изо-лента | 0.2.5 | Итераторы | 1.0.13 |
jquerylib | 0.1.4 | jsonlite | 1.7.2 | KernSmooth | 2.23-20 |
трикотажный | 1,36 | маркирование | 0.4.2 | позже | 1.3.0 |
решётка | 0.20-45 | Lava | 1.6.10 | жизненный цикл | 1.0.1 |
слушай | 0.8.0 | лубридейт | 1.8.0 | магриттр | 2.0.1 |
Markdown | 1,1 | МАССАЧУСЕТС | 7.3-54 | «Матрица» | 1.3-4 |
Запоминание | 2.0.0 | оплаты | 4.1.1 | MGCV | 1.8-38 |
мим | 0,12 | ModelMetrics | 1.2.2.2 | модельер | 0.1.8 |
munsell | 0.5.0 | NLME | 3.1-152 | ннейронная сеть | 7.3-16 |
numDeriv | 2016.8-1.1 | OpenSSL | 1.4.5 | параллельный | 4.1.1 |
параллельно | 1.28.1 | столб | 1.6.4 | пакджбилд | 1.2.0 |
pkgconfig | 2.0.3 | пкглоад (pkgload) | 1.2.3 | Плогр | 0.2.0 |
плайр | 1.8.6 | хвалить | 1.0.0 | prettyunits | 1.1.1 |
pROC | 1.18.0 | Processx | 3.5.2 | Prodlim | 2019.11.13 |
Ход выполнения | 1.2.2 | progressr | 0.9.0 | обещания | 1.2.0.1 |
прото | 1.0.0 | прокси | 0.4-26 | п.с. | 1.6.0 |
мурлыканье | 0.3.4 | r2d3 | 0.2.5 | Р6 | 2.5.1 |
randomForest (рандомФорест) | 4.6-14 | рэпдирс | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.2 |
readxl (пакет для чтения Excel-файлов) | 1.3.1 | Рецепты | 0.1.17 | реванш | 1.0.1 |
реванш2 | 2.1.2 | пульты дистанционного управления | 2.4.1 | репрекс | 2.0.1 |
Изменить форму2 | 1.4.4 | rlang | 0.4.12 | rmarkdown (инструмент для создания динамических документов в R) | 2,11 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart (пакет для построения деревьев решений в языке программирования R) | 4.1-15 |
rprojroot | 2.0.2 | Rserve (Рcерве) | 1.8-8 | RSQLite | 2.2.8 |
рстудиоапи | 0,13 | rversions | 2.1.1 | Рвест | 1.0.2 |
дерзость | 0.4.0 | весы | 1.1.1 | селектор | 0.4-2 |
информация о сессии | 1.1.1 | форма | 1.4.6 | блестящий | 1.7.1 |
sourcetools | 0.1.7 | Sparklyr | 1.7.2 | SparkR | 3.2.0 |
пространственный | 7.3-11 | Сплайны | 4.1.1 | SQLDF | 0,4-11 |
SQUAREM | январь 2021 | статистика | 4.1.1 | статистика4 | 4.1.1 |
стринги | 1.7.5 | stringr | 1.4.0 | выживание | 3.2-13 |
СИС | 3,4 | язык программирования Tcl/Tk | 4.1.1 | ОбучениеDemos | 2,10 |
testthat | 3.1.0 | Tibble | 3.1.5 | Тидыр | 1.1.4 |
tidyselect | 1.1.1 | tidyverse (тайдивёрс) | 1.3.1 | TimeDate | 3043.102 |
tinytex | 0,34 | средства | 4.1.1 | База данных часовых зон (tzdb) | 0.1.2 |
используйэто | 2.1.2 | utf8 | 1.2.2 | служебные программы | 4.1.1 |
UUID (Универсальный уникальный идентификатор) | 0.1-4 | VCTRS | 0.3.8 | viridisLite | 0.4.0 |
брррм | 1.5.5 | Уолдо | 0.3.1 | усы | 0,4 |
увядать | 2.4.2 | xfun | 0,27 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | YAML | 2.2.1 |
ZIP-архив | 2.2.0 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.12)
ИД группы | Идентификатор артефакта | Версия |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Клиент Amazon Kinesis | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling (автоматическое масштабирование) | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | AWS Java SDK для CloudSearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy (AWS Java SDK для CodeDeploy) | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | Конфигурация SDK для Java от AWS | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline (пакет для работы с Data Pipeline на Java) | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing (пакет программного обеспечения для балансировки нагрузки в AWS, написанный на Java) | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport (пакет для импорта и экспорта данных) | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms (пакет программного обеспечения для работы с AWS KMS) | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | AWS Java SDK для машинного обучения | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | AWS Java SDK для RDS | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm (AWS SDK для Java — SSM модуль) | 1.11.655 |
com.amazonaws | AWS Java SDK для Storage Gateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | Поддержка AWS Java SDK | 1.11.655 |
com.amazonaws | aws-java-sdk-swf библиотеки | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | потоковая передача | 2.9.6 |
com.databricks | Rserve (Рcерве) | 1.8-3 |
com.databricks | jets3t | 0.7.1–0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | криогенное затенение | 4.0.2 |
com.esotericsoftware | минлог | 1.3.0 |
com.fasterxml | одноклассник | 1.3.4 |
com.fasterxml.jackson.core | аннотации Джексона | 2.12.2 |
com.fasterxml.jackson.core | джексон-ядро | 2.12.2 |
com.fasterxml.jackson.core | джексон-databind | 2.12.2 |
com.fasterxml.jackson.dataformat | Джексон-формат-данных-CBOR | 2.12.2 |
com.fasterxml.jackson.datatype | джексон-дейтайп-джода | 2.12.2 |
com.fasterxml.jackson.module | джексон-модуль-паранэймер | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
com.github.ben-manes.caffeine | кофеин | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | ядро | 1.1.2 |
com.github.fommil.netlib | нативная_ссылка-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | Нативная_система-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives (нативная система-нативы java) | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | Gson | 2.8.6 |
com.google.crypto.tink | тинк | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | гуава | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | профилировщик | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.ВЫПУСК |
com.lihaoyi | исходный код_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk (SDK для Azure Data Lake Store) | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf (метод сжатия данных) | 1.0.3 |
com.sun.istack | среда выполнения istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON (формат обмена данными JavaScript) | 1.8 |
com.thoughtworks.paranamer | Паранэймер | 2.8 |
com.trueaccord.lenses | линзы_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | конфиг | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | юнивосити-парсерс | 2.9.1 |
com.zaxxer | ХикариCP | 4.0.3 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.15 |
общие коллекции | общие коллекции | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
загрузка файлов через модуль commons | загрузка файлов через модуль commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
коммонс-логгинг | коммонс-логгинг | 1.1.3 |
commons-net | commons-net | 3.1 |
коммонс-пул | коммонс-пул | 1.5.4 |
dev.ludovic.netlib | arpack | 1.3.2 |
dev.ludovic.netlib | Блас | 1.3.2 |
dev.ludovic.netlib | LAPACK (программная библиотека для линейной алгебры) | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | компрессор воздуха | 0,19 |
io.delta | delta-sharing-spark_2.12 | 0.2.0 |
метрики io.dropwizard.metrics | основные метрики | 4.1.1 |
метрики io.dropwizard.metrics | «metrics-graphite» | 4.1.1 |
метрики io.dropwizard.metrics | Метрики-Чек здоровья | 4.1.1 |
метрики io.dropwizard.metrics | метрики для Jetty9 | 4.1.1 |
метрики io.dropwizard.metrics | Метрики-JMX | 4.1.1 |
метрики io.dropwizard.metrics | metrics-json | 4.1.1 |
метрики io.dropwizard.metrics | метрики для JVM | 4.1.1 |
метрики io.dropwizard.metrics | метрики и сервлеты | 4.1.1 |
io.netty | netty-all (все пакеты netty) | 4.1.63.Окончательная |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | простыйклиент_общий | 0.7.0 |
io.prometheus | Симплклиент_дропвизард | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | коллектор | 0.12.0 |
jakarta.annotation | jakarta.annotation-api (аннотация API Джакарты) | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | активация | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | джта | 1,1 |
javax.transaction | интерфейс транзакций | 1,1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0–2 |
javolution | javolution | 5.5.1 |
джлайн | джлайн | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | джна | 5.8.0 |
net.razorvine | пиролит | 4.30 |
net.sf.jpam | джпам | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk (SDK для обработки данных Snowflake) | 0.9.6 |
net.snowflake | снежинка-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | арпак_комбинированный_все | 0,1 |
org.acplt.remotetea | «remotetea-oncrpc» | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8 |
org.antlr | шаблон строки | 3.2.1 |
org.apache.ant | муравей | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | формат стрелок | 2.0.0 |
org.apache.arrow | ядро памяти Arrow | 2.0.0 |
org.apache.arrow | арроу-мемори-нетти | 2.0.0 |
org.apache.arrow | вектор стрелки | 2.0.0 |
org.apache.avro | Авро | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | Коммонс-компресс | 1,20 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | Общедоступный текст | 1,6 |
org.apache.curator | куратор-клиент | 2.13.0 |
org.apache.curator | кураторский фреймворк | 2.13.0 |
org.apache.curator | куратор рецептов | 2.13.0 |
org.apache.derby | дерби | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api (клиентский API hadoop) | 3.3.1-databricks |
org.apache.hadoop | среда выполнения hadoop-клиента | 3.3.1 |
org.apache.hive | hive-beeline (инструмент командной строки для работы с Apache Hive) | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | Hive-Serde | 2.3.9 |
org.apache.hive | хив-шимы | 2.3.9 |
org.apache.hive | hive-storage-api (интерфейс хранения данных Hive) | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | хив-шимс-коммон | 2.3.9 |
org.apache.hive.shims | планировщик hive-shims | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0-инкубирование |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | плющ | 2.5.0 |
org.apache.mesos | мезос-шейдед-прото-баф | 1.4.0 |
org.apache.orc | орк-кор | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | орк-шимы | 1.6.10 |
org.apache.parquet | паркет-колонка | 1.12.0-databricks-0003 |
org.apache.parquet | общий паркет | 1.12.0-databricks-0003 |
org.apache.parquet | паркетное кодирование | 1.12.0-databricks-0003 |
org.apache.parquet | структуры формата паркета | 1.12.0-databricks-0003 |
org.apache.parquet | Parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | аннотации для аудитории | 0.5.0 |
org.apache.zookeeper | смотритель зоопарка | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | джексон-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl (джексон-маппер-асл) | 1.9.13 |
org.codehaus.janino | commons-компилятор | 3.0.16 |
org.codehaus.janino | джанино | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-continuation (продолжение Jetty) | 9.4.40.v20210413 |
org.eclipse.jetty | «jetty-http» | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.eclipse.jetty | Jetty Plus | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-proxy (джетти-прокси) | 9.4.40.v20210413 |
org.eclipse.jetty | защита пристани | 9.4.40.v20210413 |
org.eclipse.jetty | сервер Jetty | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
org.eclipse.jetty | джетти-ютил (jetty-util) | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.eclipse.jetty | Jetty - веб-приложение | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | WebSocket API | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-клиент | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | WebSocket-Common | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | вебсокет-сервер | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | хк2-локатор | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | локатор ресурсов OSGi | 1.0.3 |
org.glassfish.hk2.external | «aopalliance-repackaged» | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | Jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | джерси-контейнер-сервлет-кор | 2,34 |
org.glassfish.jersey.core | jersey-client (джерси-клиент) | 2,34 |
org.glassfish.jersey.core | джерси-коммон | 2,34 |
org.glassfish.jersey.core | Джерси-сервер | 2,34 |
org.glassfish.jersey.inject | джерси-hk2 | 2,34 |
org.hibernate.validator | гибернейт-валидатор | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging (логирование в JBoss) | 3.3.2.Окончательно |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | аннотации | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client (клиентская библиотека для работы с базой данных MariaDB на Java) | 2.2.5 |
org.objenesis | Обдженесис | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | прокладки | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | РЭнджин | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | тестовый интерфейс | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j (адаптер для JCL, работающий поверх SLF4J) | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | неиспользованный | 1.0.0 |
org.springframework | Скорее всего, переводы названия технических компонентов, таких как "spring-core", оставляются без изменений, но если есть принятое русское название или объяснение, его можно доавить для ясности. | 4.1.4.ВЫПУСК |
org.springframework | весенний тест | 4.1.4.ВЫПУСК |
org.threeten | тритен-экстра | 1.5.0 |
org.tukaani | хз | 1.8 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | машинист_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | SnakeYAML | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
Программное обеспечение Amazon Ion | ion-java | 1.0.2 |
стекс | stax-api | 1.0.1 |