Операторы SQL компилируются и анализируются в деревья AST на основе ANTLR4.,SparkSqlParser#parseпроходитьVisitorАнализ обхода шаблонов посетителейASTДерево,генерироватьUnresolved Logical План (нерешенный логический план);
на основеAnalyzer#applyСоответствующий эффект правил,Логический план (логический план) формируется после привязки информации узла дерева (Каталог метаданных);
на основеOptimizer#applyоптимизация Неэффективная логика Деревоструктура(нравитьсяCBOоптимизация),генерироватьOptimized Logical План (оптимизированный логический план);
на основеSparkPlanner#plan,в соответствии сOptimized Logical PlanСопоставьте соответствующийStrategyигенерироватьгруппаPhysical Планы (физический план);
На основе модели затрат (Стоимость Модель)Выбрано Physical Plan(оптимальный план по физике)и подготовиться к подаче(prepareForExecution);
Наконец, объект RDD выполнения получается на основе генерации кода.
Весь описанный выше процесс преобразования выполняется на стороне драйвера Spark и не задействует распределенную среду.
Статистика
Spark 2.2 начинает поддерживать оптимизацию CBO, а время запуска обновлений статистических метаданных следующее:
ColumnStat Поле Статистика, Поле поддерживает статистику гистограмм:
Поле
Имя поля
distinctCount
Статистика количества различных значений Поле
min
Полеминимум
max
ПолеMAX
nullCount
Поле — количество нулевых значений
avgLen
Средняя длина поля
maxLen
Максимальная длина значения Поле
histogram
Гистограмма значений поля
version
Полестатистическая версия
Есть три способа получить метаданные Spark. Статистика:
Получение хранилища метаданных на основе персистентности, в настоящее время поддерживается только хранилище метаданных Hive;
На основе InMemoryFileIndex вызовите базовый API хранилища (Hadoop API), чтобы вычислить количество и размер хранилища файлов данных;
Используйте размер данных Spark по умолчанию, параметр конфигурации: spark.sql.defaultSizeInBytes;
Подключение к внешнему метахранилищу метаданных инкапсулируется как CatalogStatistics.,Метаданные таблицы получаются из Table#parameters.,Пакеты хранения и чтения статистики называются соответственно: HiveExternalCatalog#statsToProperties, HiveExternalCatalog#statsFromProperties,HiveClientИнкапсуляцияна основеHive Metastore RPCинтерфейс,Чтение и запись статистических метаданных, сохраненных в Hive Metastore, путем вызова HiveClient.。Sparkповерхность Статистика имеетнравиться Настройте первичный ключ ниже:
spark.sql.statistics.totalSize: общий размер файлов табличных данных, единичный байт;
spark.sql.statistics.numRows: общее количество строк данных таблицы;
spark.sql.statistics.colStats.{имя поля}: где значение — статистика в формате json.,Включенная информация: DifferentCount, min, max, nullCount, avgLen, maxLen, гистограмма, версия;
АНАЛИЗВыполнение
Язык кода:sql
копировать
ANALYZE TABLE table_name [ PARTITION ( partition_col_name [ = partition_col_val ] [ , ... ] ) ]
COMPUTE STATISTICS [ NOSCAN | FOR COLUMNS col [ , ... ] | FOR ALL COLUMNS ]
Поддержка команд анализа: AnalyColumnCommand, AnalyTableCommand.
Выполнение статистических метаданных:
поверхность Статистика:вызовCommandUtils#calculateTotalSize Инкапсулированное выполнение, totalSize считывает информацию о файле FS в разделе «Местоположение» и суммирует ее, numRows вызывает программу запуска искры sparkSession.table("table").count();
Поле Статистика:вызовCommandUtils#computeColumnStats Инкапсулировать выполнение, CommandUtils#computePercentiles Поддерживает статистику гистограммы для каждого сегментированного данных (по умолчанию 254 сегмента) и выполняет статистику Spark. Реализация агрегатного оператора;
Сбор статистических метаданных:получатьповерхность、Информация о разделах будет автоматически дополнена статистическими метаданными;
Обновления статистических метаданных:SessionCatalog#alterTableStatsОбновить метаданные,Реализовано для Hive Metastore.,новызовHiveClient#alterTableметод Обновить метаданные Информация о конфигурации。