Поделиться через


Databricks Runtime 11.1 (EoS)

Примечание.

Поддержка этой версии databricks Runtime закончилась. Сведения о дате окончания поддержки см . в журнале завершения поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.

В следующих заметках о выпуске содержатся сведения о Databricks Runtime 11.1 на платформе Apache Spark 3.3.0. Эти образы были выпущены в июле 2022 года.

Новые функции и внесенные улучшения

Photon предоставляется в общедоступной версии

Photon теперь предоставляется в общедоступной версии начиная с Databricks Runtime 11.1. Photon — это собственный векторизованный обработчик запросов Azure Databricks, призванный обеспечить прямую совместимость с API Apache Spark для работы с существующим кодом. Он создан на языке C++, что позволяет пользоваться преимуществами современного оборудования и применять новейшие методики векторизованной обработки запросов. Это повышает производительность реальных данных и приложений благодаря повышенному уровню параллелизма на уровне данных и инструкций в ЦП — и все это за счет собственных возможностей озера данных.

Photon является частью высокопроизводительной среды выполнения, которая ускоряет работу с существующими вызовами SQL и API кадров данных и сокращает совокупную стоимость рабочей нагрузки. Photon используется по умолчанию в хранилищах SQL Databricks.

Новые функции и внесенные улучшения:

  • Новый векторизованный оператор сортировки.
  • Новые векторизованные функции окон.
  • Новые типы и размеры экземпляров во всех облаках.

Ограничения:

  • Определяемые пользователем функции Scala и Python не поддерживаются в Photon.
  • RDD не поддерживается в Photon.
  • Структурированная потоковая передача не поддерживается в Photon.

Дополнительные сведения см. в следующих объявлениях Photon.

Photon: новый векторизованный оператор сортировки

Photon теперь поддерживает векторизованную сортировку, если запрос содержит SORT_BY, CLUSTER_BY или функцию окна с ORDER BY.

Ограничения: Photon не поддерживает глобальное предложение ORDER BY. Сортировки для оценки окна будут фотонизироваться, но глобальная сортировка будет и дальше выполняться в Spark.

Photon: новые векторизованные функции окон

Photon теперь поддерживает векторизованное вычисление функции окна для множества типов кадров и функций. К новым функциям окон относятся следующие: row_number, rank, dense_rank, lag, lead, percent_rank, ntile и nth_value. Поддерживаемые типы кадров окон: выполнение (UNBOUNDED PRECEDING AND CURRENT ROW), без привязки (UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING), увеличение (UNBOUNDED PRECEDING AND <OFFSET> FOLLOWING) и уменьшение (<OFFSET> PRECEDING AND UNBOUNDED FOLLOWING).

Ограничения:

  • Photon поддерживает только версии ROWS всех типов кадров.
  • Photon пока не поддерживает тип скользящего кадра (<OFFSET> PRECEDING AND <OFFSET> FOLLOWING).

Photon: поддерживаемые типы экземпляров

  • dds_v5
  • ds_v5
  • eas_v4
  • eds_v4
  • eds_v5
  • es_v5
  • las_v3
  • ls_v3

Канал изменений данных теперь может автоматически обрабатывать метки времени вне диапазона

Теперь веб-канал измененных данных (CDF) включает новый режим для предоставления меток времени или версий после последней версии фиксации без возникновения ошибок. По умолчанию этот режим отключен. Его можно включить, задав для конфигурации spark.databricks.delta.changeDataFeed.timestampOutOfRange.enabled значение true.

При описании и отображении функций SQL теперь также отображаются имена Unity Catalog в выходных данных (общедоступная предварительная версия)

Команды DESC TABLE, DESC DATABASE, DESC SCHEMA, DESC NAMESPACE, DESC FUNCTION, EXPLAIN и SHOW CREATE TABLE теперь всегда отображают имя каталога в выходных данных.

Вывод и изменение схемы для файлов Parquet в автозагрузчике (общедоступная предварительная версия)

Автозагрузчик теперь поддерживает вывод и изменение схемы в Parquet-файлах. Как и с форматами JSON, CSV и Avro, теперь вы можете использовать столбец восстановленных данных для восстановления непредвиденных данных, которые могут отображаться в файлах Parquet. К ним относятся данные, которые невозможно проанализировать в ожидаемом типе данных, столбцы с иными регистрами и дополнительные столбцы, не входящие в ожидаемую схему. Автозагрузчик можно настроить для автоматического изменения схемы при добавлении новых столбцов во входящие данные. Дополнительные сведения см. в статье о настройке вывода и эволюции схемы в автозагрузчике.

Автозагрузчик теперь поддерживает эволюцию схемы для Avro (GA)

Дополнительные сведения см. в статье о настройке вывода и эволюции схемы в автозагрузчике.

Поддержка Delta Lake для динамических перезаписей разделов

Delta Lake теперь поддерживает режим динамической перезаписи секций для перезаписи всех существующих данных в каждой логической секции, для которой операция записи фиксирует новые данные. См . выборочную перезапись данных с помощью Delta Lake.

Поддержка схемы сведений для объектов, созданных в Unity Catalog

Схема сведений предоставляет самоописываемый API на основе SQL для метаданных различных объектов базы данных, включая таблицы и представления, ограничения и подпрограммы. В схеме сведений вы найдете набор представлений, описывающих объекты, известные каталогу схемы, которые вам разрешено просматривать. Схема сведений каталога SYSTEM возвращает сведения об объектах во всех каталогах в хранилище метаданных. См. статью Схема сведений.

Информационные ограничения для таблиц Delta Lake с использованием Unity Catalog (общедоступная предварительная версия)

Теперь вы можете определить информационные ограничения первичного и внешнего ключа в таблицах Delta Lake с использованием Unity Catalog. Информационные ограничения не применяются. См. статью Предложение CONSTRAINT.

Unity Catalog предоставляется в общедоступной версии

Каталог Unity теперь общедоступен, начиная с Databricks Runtime 11.1. См. статью Что такое Unity Catalog?

Delta Sharing предоставляется в общедоступной версии

Delta Sharing теперь предоставляется в общедоступной версии, начиная с Databricks Runtime 11.1.

В Databricks Delta Sharing полностью управляется без обмена маркерами. Вы можете создавать и администрировать поставщиков, получателей и общие ресурсы в пользовательском интерфейсе или с помощью SQL и REST API.

Некоторые функции включают ограничение доступа получателей, запрашивание данных с помощью списков доступа по IP-адресам и региональных ограничений, а также делегирование управления Delta Sharing пользователям, не являющимся администраторами. Вы также можете запрашивать изменения данных и делиться добавочными версиями с помощью веб-каналов данных об изменениях. См. раздел "Что такое разностный общий доступ?".

Изменения в работе

Скрытие конфиденциальных свойств для DESCRIBE TABLE и SHOW TABLE PROPERTIES

Команды DESCRIBE TABLE и SHOW TABLE PROPERTIES теперь скрывают конфиденциальные свойства.

Кластеры заданий по умолчанию предназначены для режима доступа к одному пользователю с помощью Databricks Runtime 11.1 и более поздних версий.

Для поддержки каталога Unity кластеры заданий с помощью Databricks Runtime 11.1 и более поздних версий, созданных с помощью пользовательского интерфейса заданий или API заданий, по умолчанию будут использоваться режим доступа к одному пользователю. Режим доступа к одному пользователю поддерживает большинство языков программирования, функций кластера и функций управления данными. Вы по-прежнему можете настроить режим общего доступа через пользовательский интерфейс или API, но языки или функции могут быть ограничены.

Обновления библиотек

  • Обновленные библиотеки Python:
    • filelock — с версии 3.6.0 до 3.7.1;
    • plotly — с версии 5.6.0 до 5.8.2;
    • protobuf — с версии 3.20.1 до 4.21.2.
  • Обновленные библиотеки R:
    • chron — с версии 2.3-56 до 2.3-57;
    • DBI — с версии 1.1.2 до 1.1.3;
    • dbplyr — с версии 2.1.1 до 2.2.0;
    • e1071 — с версии 1.7-9 до 1.7-11;
    • future — с версии 1.25.0 до 1.26.1;
    • globals — с версии 0.14.0 до 0.15.1;
    • hardhat — с версии 0.2.0 до 1.1.0;
    • ipred — с версии 0.9-12 до 0.9-13;
    • openssl — с версии 2.0.0 до 2.0.2;
    • parallelly — с версии 1.31.1 до 1.32.0;
    • processx — с версии 3.5.3 до 3.6.1;
    • progressr — с версии 0.10.0 до 0.10.1;
    • proxy — с версии 0.4-26 до 0.4-27;
    • ps — с версии 1.7.0 до 1.7.1;
    • randomForest — с версии 4.7-1 до 4.7-1.1;
    • roxygen2 — с версии 7.1.2 до 7.2.0;
    • Rserve — с версии 1.8-10 до 1.8-11;
    • RSQLite — с версии 2.2.13 до 2.2.14;
    • sparklyr — с версии 1.7.5 до 1.7.7;
    • tinytex — с версии 0.38 до 0.40;
    • usethis — с версии 2.1.5 до 2.1.6;
    • xfun — с версии 0.30 до 0.31.
  • Обновленные библиотеки Java:
    • io.delta.delta-sharing-spark_2.12 — с версии 0.4.0 до 0.5.0.

Apache Spark

Databricks Runtime 11.2 включает Apache Spark 3.3.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 11.1 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:

  • [SPARK-40054] [SQL] Восстановление синтаксиса обработки ошибок try_cast()
  • [SPARK-39489] [CORE] Повышение эффективности ведения журнала событий JsonProtocol благодаря использованию Jackson вместо Json4s
  • [SPARK-39319] [CORE][SQL] Создание контекстов запросов в составе SparkThrowable
  • [SPARK-40085] [SQL] Использование класса ошибок INTERNAL_ERROR вместо IllegalStateException для указания ошибок
  • [SPARK-40001] [SQL] Запись NULL в столбцы JSON DEFAULT приводит к записи значения NULL в хранилище
  • [SPARK-39635] [SQL] Поддержка метрик драйверов в пользовательском API метрик DS версии 2
  • [SPARK-39184] [SQL] Обработка результирующего массива меньшего размера в последовательностях дат и меток времени
  • [SPARK-40019] [SQL] Рефакторинг комментария ArrayType containsNull и рефакторинг логики непонимания в выражении collectionOperator о containsNull
  • [SPARK-39989] [SQL] Поддержка статистики столбцов оценки, если она является свертываемым выражением
  • [SPARK-39926] [SQL] Исправление ошибки поддержке столбца по умолчанию для невекторизованных проверок Parquet
  • [SPARK-40052] [SQL] Обработка прямых буферов байтов в VectorizedDeltaBinaryPackedReader
  • [SPARK-40044] [SQL] Исправление типа целевого интервала в ошибках переполнения во время приведения
  • [SPARK-39835] [SQL] Исправление ошибки, связанной с удалением RemoveSorts глобальной сортировки под локальной сортировкой
  • [SPARK-40002] [SQL] Не сжимайте ограничение через окно с помощью ntile
  • [SPARK-39976] [SQL] ArrayIntersect должен правильно обрабатывать значение NULL в левом выражении
  • [SPARK-39985] [SQL] Включение неявных значений столбцов по умолчанию во вставках из кадров данных
  • [SPARK-39776] [SQL] Подробная строка JOIN должна добавить тип соединения
  • [SPARK-38901] [SQL] DS V2 поддерживает принудительную отправку прочих функций
  • [SPARK-40028] [SQL][продолжение] Улучшение примеров строковых функций
  • [SPARK-39983] [CORE][SQL] Не следует кэшировать несериализированные отношения широковещательной рассылки в драйвере
  • [SPARK-39812] [SQL] Упрощение кода, которое создает AggregateExpression с toAggregateExpression
  • [SPARK-40028] [SQL] Добавление примеров с двоичными данными для строковых выражений
  • [SPARK-39981] [SQL] Отображение исключения QueryExecutionErrors.castingCauseOverflowErrorInTableInsert в Cast
  • [SPARK-40007] [PYTHON][SQL] Добавление параметра режима в функции
  • [SPARK-40008] [SQL] Поддержка приведения целочисленных значений к интервалам ANSI
  • [SPARK-40003] [PYTHON][SQL] Добавление параметра медианы в функции
  • [SPARK-39952] [SQL] Команда SaveIntoDataSourceCommand должна повторно кэшировать отношение результата
  • [SPARK-39951] [SQL] Обновление проверки столбца Parquet версии 2 для вложенных полей
  • [SPARK-39775] [CORE][AVRO] Отключение проверки значений по умолчанию при анализе схем Avro
  • [SPARK-33236] [shuffle] Бэкпорт для DBR 11.x: включение службы перетасовки на основе push-уведомлений для сохранения состояния в базе данных на уровне NM, чтобы иметь возможность продолжить работу при перезапуске
  • [SPARK-39836] [SQL] Упрощение V2ExpressionBuilder путем извлечения общего метода.
  • [SPARK-39867] [SQL] Глобальное ограничение не должно наследовать OrderPreservingUnaryNode
  • [SPARK-39873] [SQL] Удалите OptimizeLimitZero и объедините его в EliminateLimits
  • [SPARK-39961] [SQL] Сдвиг DS V2 преобразует Cast, если приведение является безопасным
  • [SPARK-39872] [SQL] Изменение, связанное с использовании BytePackerForLong#unpack8Values с API ввода массива в VectorizedDeltaBinaryPackedReader
  • [SPARK-39858] [SQL] Удаление ненужных AliasHelper или PredicateHelper для некоторых правил
  • [SPARK-39962] [WARMFIX][ES-393486][PYTHON][SQL] Применение проекции, если не указаны атрибуты группы
  • [SPARK-39900] [SQL] Обработка частичного или отрицаемого условия в pushdown предиката двоичного формата
  • [SPARK-39904] [SQL] Переименование inferDate в prefersDate, а также пояснение семантики параметра в источнике данных CSV
  • [SPARK-39958] [SQL] Добавление журнала предупреждений, если не удается загрузить пользовательский объект метрики
  • [SPARK-39936] [SQL] Схема хранилища в свойствах для представлений Spark
  • [SPARK-39932] [SQL] WindowExec должен очищать буфер последнего раздела
  • [SPARK-37194] [SQL] Исключение ненужной сортировки при выполнении записи версии 1, если это не динамический раздел
  • [SPARK-39902] [SQL] Добавление сведений о сканировании в узел сканирования плана Spark в SparkUI
  • [SPARK-39865] [SQL] Отображение правильных сообщений при ошибках переполнения во время вставки таблицы
  • [SPARK-39940] [SS] Обновление таблицы каталога при потоковом запросе с указанием приемника DSv1
  • [SPARK-39827] [SQL] Использования класса ошибок ARITHMETIC_OVERFLOW при переполнении int в add_months()
  • [SPARK-39914] [SQL] Добавление фильтра DS версии 2 в преобразование фильтра версии 1
  • [SPARK-39857] [SQL] Ручной бэкпорт DBR 11.x; V2ExpressionBuilder использует неправильный тип данных LiteralValue для предиката In 43454
  • [SPARK-39840] [SQL][PYTHON] Исключение PythonArrowInput для симметрии с PythonArrowOutput
  • [SPARK-39651] [SQL] Условие фильтра очистки, если сравнение с rand является детерминированным
  • [SPARK-39877] [PYTHON] Добавление unpivot в API DataFrame PySpark
  • [SPARK-39847] Исправление состояния гонки в RocksDBLoader.loadLibrary() в случае прерывания вызывающего потока
  • [SPARK-39909] [SQL] Упорядочение проверки сведений об отправке для JDBCV2Suite
  • [SPARK-39834] [SQL][SS] Включение статистики и ограничений по источнику для LogicalRDD, если он поступает из кадра данных
  • [SPARK-39849] [SQL] Dataset.as(StructType) заполняет отсутствующие новые столбцы значением NULL
  • [SPARK-39860] [SQL] Дополнительные выражения должны расширять предикат
  • [SPARK-39823] [SQL][PYTHON] Переименование Dataset.as как Dataset.to и добавление DataFrame.to в PySpark
  • [SPARK-39918] [SQL][MINOR] Замена слов "несопоставимый" на "несовместимый" в сообщении об ошибке
  • [SPARK-39857] [SQL][3.3] V2ExpressionBuilder использует неправильный тип данных LiteralValue для предиката In
  • [SPARK-39862] [SQL] Ручной бэкпорт для PR 43654, указывающий на DBR 11.x: обновите SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS, чтобы разрешить/запретить команды ALTER TABLE … ADD COLUMN отдельно.
  • [SPARK-39844] [SQL] Ручной бэкпорт для PR 43652, указывающий на DBR 11.x
  • [SPARK-39899] [SQL] Исправление передачи параметров сообщения в InvalidUDFClassException
  • [SPARK-39890] [SQL] Обеспечение наследования в TakeOrderedAndProjectExec из AliasAwareOutputOrdering
  • [SPARK-39809] [PYTHON] Поддержка CharType в PySpark
  • [SPARK-38864] [SQL] Добавление отмены свертывания и изменения формата в набор данных
  • [SPARK-39864] [SQL] Медленная регистрация ExecutionListenerBus
  • [SPARK-39808] [SQL] Поддержка режима агрегатной функции
  • [SPARK-39839] [SQL] Обработка особого случая null десятичной переменной нулевой длины с ненулевым смещением offsetAndSize при проверке структурной целостности UnsafeRow
  • [SPARK-39875] [SQL] Изменение метода protected в последнем классе на private или package-visible
  • [SPARK-39731] [SQL] Исправлена проблема в источниках данных CSV и JSON при синтаксическом анализе дат в формате "yyyyMdd" с помощью исправленной политики синтаксического анализа времени
  • [SPARK-39805] [SS] Прекращение использования Trigger.Once и Promote Trigger.AvailableNow
  • [SPARK-39784] [SQL] Размещение литеральные значения справа от фильтра источника данных после преобразования выражения Catalyst в фильтр источника данных
  • [SPARK-39672] [SQL][3.1] Исправление удаления проекта перед фильтрацией с помощью связанного вложенного запроса
  • [SPARK-39552] [SQL] Унификация версий 1 и 2 DESCRIBE TABLE
  • [SPARK-39806] [SQL] Доступ к _metadata в секционированной таблице может привести к сбою запроса
  • [SPARK-39810] [SQL] Проверка Catalog.tableExists должна обрабатывать вложенное пространство имен
  • [SPARK-37287] [SQL] Извлечение динамического раздела и сортировки контейнеров из FileFormatWriter
  • [SPARK-39469] [SQL] Вывод типа даты для вывода схемы CSV
  • [SPARK-39148] [SQL] Агрегатная отправка DS версии 2 может работать с OFFSET или LIMIT
  • [SPARK-39818] [SQL] Исправление ошибки в типах ARRAY, STRUCT, MAP со значениями DEFAULT с полями NULL
  • [SPARK-39792] [SQL] Добавление DecimalDivideWithOverflowCheck для десятичного среднего
  • [SPARK-39798] [SQL] Замена toSeq.toArray на .toArray[Any] в конструкторе GenericArrayData
  • [SPARK-39759] [SQL] Реализация listIndexes в JDBC (диалект H2)
  • [SPARK-39385] [SQL] Поддерживает отправку REGR_AVGX и REGR_AVGY
  • [SPARK-39787] [SQL] Используйте класс error при ошибке синтаксического анализа функции to_timestamp
  • [SPARK-39760] [PYTHON] Поддержка Varchar в PySpark
  • [SPARK-39557] [SQL] Ручной бэкпорт для DBR 11.x: поддержка типов ARRAY, STRUCT, MAP в качестве значений по умолчанию
  • [SPARK-39758] [SQL][3.3] Исправление NPE из функций regexp для недопустимых шаблонов
  • [SPARK-39749] [SQL] Режим SQL ANSI: использование простого строкового представления при приведении десятичного числа к строке
  • [SPARK-39704] [SQL] Реализация createIndex и dropIndex & indexExists в JDBC (диалект H2)
  • [SPARK-39803] [SQL] Использование LevenshteinDistance вместо StringUtils.getLevenshteinDistance
  • [SPARK-39339] [SQL] Поддержка типа TimestampNTZ в источнике файлов JDBC
  • [SPARK-39781] [SS] Добавление поддержки для предоставления max_open_files поставщику хранилища состояний rocksdb
  • [SPARK-39719] [R] Реализация databaseExists/getDatabase в SparkR поддерживает пространство имен 3L
  • [SPARK-39751] [SQL] Переименование метрики hash aggregate key probes
  • [SPARK-39772] [SQL] пространство имен должно иметь значение NULL, если база данных имеет значение NULL в старых конструкторах
  • [SPARK-39625] [SPARK-38904][SQL] Добавление Dataset.as(StructType)
  • [SPARK-39384] [SQL] Компиляция встроенных агрегатных функций линейной регрессии для диалекта JDBC
  • [SPARK-39720] [R] Реализация tableExists/getTable в SparkR для пространства имен 3L
  • [SPARK-39744] [SQL] Добавление функции REGEXP_INSTR
  • [SPARK-39716] [R] Обеспечение поддержки пространства имен 3L в currentDatabase/setCurrentDatabase/listCatalogs в SparkR
  • [SPARK-39788] [SQL] Переименование catalogName в dialectName для JdbcUtils
  • [SPARK-39647] [CORE] Регистрация исполнителя с ESS перед регистрацией BlockManager
  • [SPARK-39754] [CORE][SQL] Удаление неиспользуемых import или ненужных {}
  • [SPARK-39706] [SQL] Задание отсутствующего столбца со значением defaultValue в качестве константы в ParquetColumnVector
  • [SPARK-39699] [SQL] Более эффективная обработка выражений создания коллекций в CollapseProject
  • [SPARK-39737] [SQL] PERCENTILE_CONT и PERCENTILE_DISC должны поддерживать агрегатный фильтр
  • [SPARK-39579] [SQL][PYTHON][R] Обеспечение совместимости ListFunctions/getFunction/functionExists с пространством имен уровня 3
  • [SPARK-39627] [SQL] При передаче JDBC версии 2 должен всегда использоваться API компиляции
  • [SPARK-39748] [SQL][SS] Включение логического плана источника для LogicalRDD, если он поступает из кадра данных
  • [SPARK-39385] [SQL] Преобразование агрегатных функций линейной регрессии для передачи
  • [SPARK-39695] [SQL] Добавление функции REGEXP_SUBSTR
  • [SPARK-39667] [SQL] Добавление еще одного решения, если недостаточно памяти для сборки и передачи таблицы
  • [SPARK-39666] [ES-337834][SQL] Использование UnsafeProjection.create для учета spark.sql.codegen.factoryMode в ExpressionEncoder
  • [SPARK-39643] [SQL] Запрет выражений вложенных запросов в значениях DEFAULT
  • [SPARK-38647] [SQL] Добавление смеси SupportsReportOrdering в интерфейсе для сканирования (DataSourceV2)
  • [SPARK-39497] [SQL] Улучшение обработки исключений при анализе при отсутствующем ключевом столбце сопоставления
  • [SPARK-39661] [SQL] Исключение создания ненужного средства ведения журнала SLF4J
  • [SPARK-39713] [SQL] Режим ANSI: добавление предложения использования try_element_at для исправления ошибки INVALID_ARRAY_INDEX
  • [SPARK-38899] [SQL] DS V2 поддерживает отправку функций datetime
  • [SPARK-39638] [SQL] Изменение, связанное с использованием ConstantColumnVector для хранения столбцов разделов в OrcColumnarBatchReader
  • [SPARK-39653] [SQL] Очистка ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int) из ColumnVectorUtils
  • [SPARK-39231] [SQL] Использование ConstantColumnVector вместо On/OffHeapColumnVector для хранения столбцов разделов в VectorizedParquetRecordReader
  • [SPARK-39547] [SQL] V2SessionCatalog не должен вызывать исключение NoSuchDatabaseException в loadNamspaceMetadata
  • [SPARK-39447] [SQL] Не следует использовать AssertionError в AdaptiveSparkPlanExec.doExecuteBroadcast
  • [SPARK-39492] [SQL] Переработка MISSING_COLUMN
  • [SPARK-39679] [SQL] TakeOrderedAndProjectExec должен учитывать порядок дочерних выходных данных
  • [SPARK-39606] [SQL] Использование дочерней статистики для оценки оператора упорядочения
  • [SPARK-39611] [PYTHON][PS] Исправление неправильных псевдонимов в array_ufunc
  • [SPARK-39656] [SQL][3.3] Исправление неправильного пространства имен в DescribeNamespaceExec
  • [SPARK-39675] [SQL] Переключение конфигурации spark.sql.codegen.factoryMode для тестирования на конфигурацию для внутреннего использования
  • [SPARK-39139] [SQL] DS V2 поддерживает отправку DS V2 UDF
  • [SPARK-39434] [SQL] Предоставление контекста запроса для ошибки среды выполнения при выходе индекса за границы массива
  • [SPARK-39479] [SQL] DS V2 поддерживает передачу математических функций (не ANSI)
  • [SPARK-39618] [SQL] Добавление функции REGEXP_COUNT
  • [SPARK-39553] [CORE] Отмена регистрации нескольких потоков не должна приводить к NPE при использовании Scala 2.13
  • [SPARK-38755] [PYTHON][3.3] Добавление файла для решения проблемы отсутствующих общих функций pandas
  • [SPARK-39444] [SQL] Добавление OptimizeSubqueries в список nonExcludableRules
  • [SPARK-39316] [SQL] Объединение PromotePrecision и CheckOverflow в двоичную арифметику с десятичными числами
  • [SPARK-39505] [UI] Содержимое журнала Escape, отображаемое в пользовательском интерфейсе
  • [SPARK-39448] [SQL] Добавить ReplaceCTERefWithRepartition в список nonExcludableRules
  • [SPARK-37961] [SQL] Переопределение maxRows/maxRowsPerPartition для некоторых логических операторов
  • [SPARK-35223] Отмена добавления IssueNavigationLink
  • [SPARK-39633] [SQL] Поддержка метки времени в секундах для TimeTravel с помощью параметров кадра данных
  • [SPARK-38796] [SQL] Обновление документации по строкам числового формата с помощью функций {try_}to_number
  • [SPARK-39650] [SS] Исправление неправильной схемы значений при дедупликации потоковой передачи с обратной совместимостью
  • [SPARK-39636] [CORE][UI] Исправление нескольких ошибок в JsonProtocol, которые влияют на операции StorageLevels и task/Executor ResourceRequests, выполняемые вне кучи
  • [SPARK-39432] [SQL] Возврат ELEMENT_AT_BY_INDEX_ZERO из element_at(*, 0)
  • [SPARK-39349] Добавление централизованного метода CheckError для проверки ошибочного пути
  • [SPARK-39453] [SQL] DS версии 2 поддерживает передачу различных неагрегатных функций (не ANSI)
  • [SPARK-38978] [SQL] DS V2 поддерживает оператор OFFSET передачи
  • [SPARK-39567] [SQL] Поддержка интервалов ANSI в функциях с процентилями
  • [SPARK-39383] [SQL] Поддержка столбцов DEFAULT в ALTER TABLE ALTER COLUMNS в источниках данных версии 2
  • [SPARK-39396] [SQL] Исправление исключение входа LDAP "код ошибки 49 — недопустимые учетные данные"
  • [SPARK-39548] [SQL] Команда CreateView с запросом предложения окна привела к неверной ошибке "определение окна не найдено"
  • [SPARK-39575] [AVRO] Добавление ByteBuffer#rewind после ByteBuffer#get в Avr…
  • [SPARK-39543] Параметр DataFrameWriterV2 должен передаваться в свойства хранилища в случае отката к версии 1
  • [SPARK-39564] [SS] Предоставление информации из таблицы каталогов в логический план в потоковом запросе
  • [SPARK-39582] [SQL] Исправление маркера "Since" для array_agg
  • [SPARK-39388] [SQL] Повторное использование orcSchema при отправке предикатов Orc
  • [SPARK-39511] [SQL] Улучшение локального ограничения передачи 1 для правой части левого полу-/антисоедиенния, если условие объединения пустое
  • [SPARK-38614] [SQL] Не следует передавать ограничение через окно, использующее percent_rank
  • [SPARK-39551] [SQL] Добавление проверки недопустимого плана AQE
  • [SPARK-39383] [SQL] Поддержка столбцов DEFAULT в ALTER TABLE ADD COLUMNS в источниках данных версии 2
  • [SPARK-39538] [SQL] Исключение создания ненужного средства ведения журнала SLF4J
  • [SPARK-39383] [SQL] Ручной бэкпорт для DBR 11.x: рефакторинг поддержки столбца DEFAULT для пропуска основного анализатора
  • [SPARK-39397] [SQL] Освобождение AliasAwareOutputExpression для поддержки псевдонима с выражением
  • [SPARK-39496] [SQL] Обработка конструкции null в Inline.eval
  • [SPARK-39545] [SQL] Изменение метода concat для ExpressionSet в Scala 2.13 с целью повышения производительности
  • [SPARK-39340] [SQL] Агрегатная передача DS v2 должна разрешать наличие точек в имени столбцов верхнего уровня
  • [SPARK-39488] [SQL] Упрощение обработки ошибок TempResolvedColumn
  • [SPARK-38846] [SQL] Добавление явного сопоставления данных между числовым типом Teradata и десятичным типом Spark
  • [SPARK-39520] [SQL] Переопределение метода -- для ExpressionSet в Scala 2.13
  • [SPARK-39470] [SQL] Поддержка приведения интервалов ANSI к десятичным числам
  • [SPARK-39477] [SQL] Удаление информации о количестве запросов из золотых файлов SQLQueryTestSuite
  • [SPARK-39419] [SQL] Исправление ошибке, приводящей к возникновению исключения ArraySort, когда блок сравнения возвращает значение NULL
  • [SPARK-39061] [SQL] Правильная настройка допустимого значения NULL для выходных атрибутов Inline
  • [SPARK-39320] [SQL] Поддержка агрегатной функции MEDIAN
  • [SPARK-39261] [CORE] Улучшение форматирования новой строки для сообщений об ошибках
  • [SPARK-39355] [SQL] Один столбец использует кавычки для создания UnresolvedAttribute
  • [SPARK-39351] [SQL] Команда SHOW CREATE TABLE должна формулировать свойства
  • [SPARK-37623] [SQL] Поддержка агрегатной функции ANSI: regr_intercept
  • [SPARK-39374] [SQL] Улучшение сообщения об ошибке для списка указанных пользователем столбцов
  • [SPARK-39255] [SQL][3.3] Улучшение сообщений об ошибках
  • [SPARK-39321] [SQL] Рефакторинг TryCast для использования RuntimeReplaceable
  • [SPARK-39406] [PYTHON] Принятие массива NumPy в createDataFrame
  • [SPARK-39267] [SQL] Очистка ненужного символа dsl
  • [SPARK-39171] [SQL] Унификация выражения приведения
  • [SPARK-28330] [SQL] Поддержка ANSI SQL: предложение смещения результатов в выражении запроса
  • [SPARK-39203] [SQL] Переопределение расположения таблицы на абсолютный URI на основе URI базы данных
  • [SPARK-39313] [SQL] toCatalystOrdering должен выдавать ошибку, если невозможно преобразовать V2Expression
  • [SPARK-39301] [SQL][PYTHON] Использование localRelation и учет размера пакета Arrow в createDataFrame с оптимизацией Arrow
  • [SPARK-39400] [SQL] spark-sql должен удалить dir ресурса Hive во всех случаях

Обновления в рамках обслуживания

Ознакомьтесь с обновлениями обслуживания Databricks Runtime 11.1.

Системная среда

  • Операционная система: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14.
  • Python: 3.9.5
  • R: 4.1.3.
  • Delta Lake: 1.2.1

Установленные библиотеки Python

Библиотека Версия Библиотека Версия Библиотека Версия
Antergos Linux 2015.10 (ISO-Rolling) argon2-cffi 20.1.0 async-generator 1,10
attrs 21.2.0 backcall 0.2.0 backports.entry-points-selectable 1.1.1
black 22.3.0 bleach 4.0.0 boto3 1.21.18
botocore 1.24.18 certifi 2021.10.8 cffi 1.14.6
chardet 4.0.0 charset-normalizer 2.0.4 щелчок 8.0.3
криптография 3.4.8 cycler 0.10.0 Cython 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 decorator 5.1.0
defusedxml 0.7.1 distlib 0.3.5 distro-info 0.23ubuntu1
entrypoints 0,3 facets-overview 1.0.0 filelock 3.8.0
idna 3.2 ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.0.1
jsonschema 3.2.0 jupyter-client 6.1.12 jupyter-core 4.8.1
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-inline 0.1.2
mistune 0.8.4 mypy-extensions 0.4.3 nbclient 0.5.3
nbconvert 6.1.0 nbformat 5.1.3 nest-asyncio 1.5.1
записная книжка 6.4.5 numpy 1.20.3 во внешнем виде 21,0
pandas 1.3.4 pandocfilters 1.4.3 parso 0.8.2
pathspec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Pillow 8.4.0 pip 21.2.4
platformdirs 2.5.2 график 5.9.0 prometheus-client 0.11.0
prompt-toolkit 3.0.20 protobuf 4.21.5 psutil 5.8.0
psycopg2 2.9.3 ptyprocess 0.7.0 pyarrow 7.0.0
pycparser 2,20 Pygments 2.10.0 PyGObject 3.36.0
pyodbc 4.0.31 pyparsing 3.0.4 pyrsistent 0.18.0
python-apt 2.0.0+ubuntu0.20.4.7 python-dateutil 2.8.2 pytz 2021.3
pyzmq 22.2.1 requests 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
мореборн 0.11.2 Send2Trash 1.8.0 setuptools 58.0.4
six 1.16.0 ssh-import-id 5,10 statsmodels 0.12.2
tenacity 8.0.1 terminado 0.9.4 testpath 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.0 typing-extensions 3.10.0.2
unattended-upgrades 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 wheel 0.37.0
widgetsnbextension 3.6.0

Установленные библиотеки R

Библиотеки R устанавливаются из моментального снимка Microsoft CRAN от 15.08.2022.

Библиотека Версия Библиотека Версия Библиотека Версия
askpass 1,1 assertthat 0.2.1 внутренние порты 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 большой двоичный объект 1.2.3 загрузка 1.3-28
заваривать 1.0-7 brio 1.1.3 метла 1.0.0
bslib 0.4.0 cachem 1.0.6 вызывающий объект 3.7.1
крышка 6.0-93 cellranger 1.1.0 chron 2.3-57
class 7.3-20 cli 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 colorspace 2.0-3
commonmark 1.8.0 компилятор 4.1.3 config 0.3.1
cpp11 0.4.2 карандаш 1.5.1 учетные данные 1.3.2
curl 4.3.2 data.table 1.14.2 наборы данных 4.1.3
DBI 1.1.3 dbplyr 2.2.1 desc 1.4.1
средства разработки 2.4.4 diffobj 0.3.5 digest 0.6.29
downlit 0.4.2 dplyr 1.0.9 dtplyr 1.2.1
e1071 1.7-11 многоточие 0.3.2 evaluate 0,16
вентиляторы 1.0.3 Farver 2.1.1 fastmap 1.1.0
fontawesome 0.3.0 forcats 0.5.1 foreach 1.5.2
иностранный 0.8-82 forge 0.2.0 fs 1.5.2
будущее 1.27.0 future.apply 1.9.0 gargle 1.2.0
Универсальные шаблоны 0.1.3 gert 1.7.0 ggplot2 3.3.6
gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globals 0.16.0 клей 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 Говер 1.0.0 графика 4.1.3
grDevices 4.1.3 grid 4.1.3 gridExtra 2.3
gsubfn 0,7 gtable 0.3.0 hardhat 1.2.0
haven 2.5.0 высокий 0,9 hms 1.1.1
htmltools 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.3 ids 1.0.1 ini 0.3.1
ipred 0.9-13 isoband 0.2.5 Итераторы 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
трикотажный 1,39 маркирование 0.4.2 later 1.3.0
решётка 0.20-45 Lava 1.6.10 жизненный цикл 1.0.1
listenv 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Markdown 1,1 МАССАЧУСЕТС 7.3-56 «Матрица» 1.4-1
memoise 2.0.1 оплаты 4.1.3 mgcv 1.8-40
мим 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.8 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
parallel 4.1.3 parallelly 1.32.1 столб 1.8.0
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
хвалить 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
Ход выполнения 1.2.2 progressr 0.10.1 promises 1.2.0.1
proto 1.0.0 proxy 0.4-27 ps 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 readr 2.1.2 readxl 1.4.0
Рецепты 1.0.1 реванш 1.0.1 rematch2 2.1.2
remotes 2.4.2 reprex 2.0.1 reshape2 1.4.4
rlang 1.0.4 rmarkdown 2,14 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.15 rstudioapi 0,13
rversions 2.1.1 rvest 1.0.2 sass 0.4.2
весы 1.2.0 селектор 0.4-2 sessioninfo 1.2.2
форма 1.4.6 блестящий 1.7.2 sourcetools 0.1.7
sparklyr 1.7.7 SparkR 3.3.0 пространственный 7.3-11
Сплайны 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
stats 4.1.3 статистика4 4.1.3 stringi 1.7.8
stringr 1.4.0 выживание 3.2-13 sys 3,4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
textshaping 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 TimeDate 4021.104
tinytex 0,40 средства 4.1.3 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
служебные программы 4.1.3 uuid 1.1-0 vctrs 0.4.1
viridisLite 0.4.0 vroom 1.5.7 waldo 0.4.0
усы 0,4 withr 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 zip 2.2.0

Установленные библиотеки Java и Scala (версия кластера Scala 2.12)

ИД группы Идентификатор артефакта Версия
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics потоковая передача 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1–0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.3
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natives 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger профилировщик 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
hadoop3 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.5.0
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx коллектор 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
mvn hadoop3 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.snowflake spark-snowflake_2.12 2.10.0-spark_3.2
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4,8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1,21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1,9
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.2-databricks
org.apache.hadoop hadoop-client-runtime 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.5
org.apache.orc orc-mapreduce 1.7.5
org.apache.orc orc-shims 1.7.5
org.apache.parquet parquet-column 1.12.0-databricks-0004
org.apache.parquet parquet-common 1.12.0-databricks-0004
org.apache.parquet parquet-encoding 1.12.0-databricks-0004
org.apache.parquet parquet-format-structures 1.12.0-databricks-0004
org.apache.parquet parquet-hadoop 1.12.0-databricks-0004
org.apache.parquet parquet-jackson 1.12.0-databricks-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,20
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.34
org.glassfish.jersey.containers jersey-container-servlet-core 2.34
org.glassfish.jersey.core jersey-client 2.34
org.glassfish.jersey.core jersey-common 2.34
org.glassfish.jersey.core jersey-server 2.34
org.glassfish.jersey.inject jersey-hk2 2.34
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark неиспользованный 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1