Создание среды разработки Spark под Linux
Создание среды разработки Spark под Linux

Общая информация о версии среды разработки следующая:

1、Linux:CentOS 6.8

2. Версия Java: jdk-8u172-linux-x64.tar.gz.

3、HadoopВерсия:hadoop-3.1.0.tar.gz

4. версия Scala: scala-2.12.6.tgz

5. Версия Python: Python-3.6.5.tgz.

6. искровая версия: spark-2.3.0-bin-hadoop2.7.tgz

7. Версия Zookeeper: Zookeeper-3.4.10.tar.gz.

8. версия улья:

9. версия Кафки:

10、серверкластер:192.168.0.110(master),192.168.0.111(slave1),192.168.0.112(slave2)

1. Установка Java

1. Загрузите установочный пакет jdk в каталог /usr/local/lib и распакуйте его.

2. Скопируйте разархивированную папку на два других компьютера.

3、СантайсерверИзменить отдельноbigdataПеременные пользовательской среды

4. Сделайте конфигурацию эффективной и проверьте

2. Установка Hadoop

1. Создайте каталог bigdata в домашнем каталоге пользователя bigdata, загрузите установочный пакет Hadoop и распакуйте его.

2. Войдите в каталог файла конфигурации Hadoop и измените конфигурацию Hadoop.

3. Измените core-site.xml и добавьте содержимое в красное поле.

4. Измените hdfs-site.xml и создайте соответствующий каталог.

5. Измените файл Yarn-site.xml.

6. Модифицировать рабочие (старая версия - слейвы)

7. Измените Hadoop-env.sh и добавьте JAVA_HOME.

8. Распространите Hadoop, настроенный на ведущем устройстве, на каждое подчиненное устройство.

9. Просто настройте переменные среды под пользователем bigdata на ведущем устройстве.

10. Сделайте переменные среды эффективными и проверьте

11. При первом запуске hdfs необходимо сначала отформатировать hdfs [hdfs namenode -format], а затем запустить hdfs [start-dfs.sh]

12. Вы можете посетить http://192.168.0.110:9870 [192.168.0.110 — IP-адрес главного устройства, а порт старой версии Hadoop — 50070], чтобы проверить, прошло ли развертывание успешно, если вам это нужно; остановите hdfs, используйте [stop-dfs.sh]

13. Вы также можете ввести имя jps, чтобы проверить, есть ли следующие процессы

14. Начать пряжу [start-yarn.sh]

15. Посетите http://192.168.0.110:8088/cluster, чтобы проверить, нормально ли работает пряжа, и прекратить использование пряжи [stop-yarn.sh].

16. Вы также можете ввести имя jps, чтобы проверить, есть ли следующие процессы

Подводить итоги,hadoopкластерУстановка завершена!

3. Установка скалы

1. Переключитесь на пользователя root, загрузите scala и загрузите его в каталог /usr/local/lib, а затем разархивируйте.

2. Раздайте распакованные файлы на ведомый1 и ведомый2.

 scp -r scala-2.12.6 root@slave1:/usr/local/lib

 scp -r scala-2.12.6 root@slave2:/usr/local/lib

3、分别существовать СантайсерверИзменитьbigdataПеременные пользовательской среды

4. Убедитесь, что переменные среды действительны.

5. Запустите команду scala, чтобы проверить успешность установки, и нажмите ctrl+z для выхода.

4. Установка питона

1、существоватькластербеги дальшеpyspark,Сначала вам необходимо установить пакеты программного обеспечения, связанные с zlibиgcc.

yum -y install gcc*

2. Загрузите установочный пакет Python, загрузите его, а затем разархивируйте.

3. Введите /usr/local/lib/, измените Modules/Setup.dist [старая версия — Setup], найдите красную строку и удалите комментарий.

4. Выполните ./configure

5、make

6、make install

7. Проверьте исходную версию системы Python и переименуйте ее.

8. Измените /usr/bin/yum.

9. Восстановите программное соединение Python.

7. Выполните команду Python, чтобы проверить, правильно ли она установлена.

5. Установка искры

1. Загрузите и загрузите установочный файл Spark в каталог bigdata домашнего каталога пользователя bigdata, а затем разархивируйте его.

2. Настройка подчиненных устройств

3. Настройте spark-env.sh

4. Распределите настроенную искру на ведомое устройство 1 и ведомое устройство 2.

scp -r ~/bigdata/spark-2.3.0-bin-hadoop2.7 bigdata@slave1:~/bigdata

scp -r ~/bigdata/spark-2.3.0-bin-hadoop2.7 bigdata@slave2:~/bigdata

5. Настройте переменные среды на главном устройстве.

source ~/.bash_profile

6. Запустите искру

7. Подтвердите запуск искры [командой jps или посетите http://192.168.0.110:8080].

8. Проверьте искровой код [ctrl+z для выхода]

6. Установка зоокипера

1. Загрузите и загрузите файл Zookeeper, а затем разархивируйте его.

2. Измените файл конфигурации.

3. Создайте каталог для конфигурации файла конфигурации.

4. Распределите настроенный Zookeeper на ведомый1 и ведомый2.

5、分别существовать3башнясервериз~/bigdata/zookeeper/dataДобавить новые файлы в каталогmyidи изменить

Содержимое myid на мастере: 0

Содержимое myid на подчиненном устройстве1: 1

Содержимое myid на подчиненном устройстве2: 2

6、Приходите отдельно3башнясерверНачать узел вzkСлужить

7. Проверьте статус ZooKeeper на каждом сервере.

7. Установка улья

1. Установите MySQL

Установка: yum install -y mysql-server

Старт: запуск службы mysqld

Измените пароль пользователя root: mysqladmin -u пароль root 'root'

Создайте куст базы данных и авторизуйте:

2. Загрузите и загрузите установочный пакет hive, а затем разархивируйте его.

3. Войдите в каталог конфигурации [/home/bigdata/bigdata/apache-hive-2.3.3-bin/conf] и измените файл конфигурации hive-site.xml.

4. Отредактируйте hive-env.sh.

5. Загрузите драйвер jdbc mysql mysql-connector-java-5.1.44-bin.jar и загрузите его в /home/bigdata/bigdata/apache-hive-2.3.3-bin/lib.

6. Настройте переменные среды мастера.

source ~/.bash_profile

7. Создайте каталог, настроенный в hive-site.xml, и авторизуйте его.

8. Укажите тип базы данных куста и инициализируйте его.

9. Проверьте, успешно ли установлена ​​база данных hive mysql [есть ли таблицы в базе данных hive]

10. Перед запуском hive сначала убедитесь, что служба хранилища метаданных запущена: сначала создайте журналы каталога журнала запуска куста, а затем запустите HIVE.

проверять:

Запустить УЛЕЙ

8. Установка кафки

1. Загрузите Kafka и загрузите ее, затем распакуйте.

2. Создайте каталог журнала и измените файл конфигурации.

mkdir /home/bigdata/bigdata/kafka-logs-new

3. Распространить Kafka на раб1 и раб2.

4. Измените файлы server.properties на ведомом устройстве 1 и ведомом устройстве 2 соответственно.

slave1:broker.id=1

 slave2:broker.id=2

5. Запустите сервер-брокер на трех серверах соответственно.

nohup bin/kafka-server-start.sh config/server.properties>~/bigdata/kafka_2.12-1.1.0/logs/server.log 2>&1 &

6. Создать тему на мастере

7. Посмотреть тему

8. Запустите продюсер для отправки сообщений.

9. Заставьте потребителя получать сообщения

10. Эффект следующий

boy illustration
Углубленный анализ переполнения памяти CUDA: OutOfMemoryError: CUDA не хватает памяти. Попыталась выделить 3,21 Ги Б (GPU 0; всего 8,00 Ги Б).
boy illustration
[Решено] ошибка установки conda. Среда решения: не удалось выполнить первоначальное зависание. Повторная попытка с помощью файла (графическое руководство).
boy illustration
Прочитайте нейросетевую модель Трансформера в одной статье
boy illustration
.ART Теплые зимние предложения уже открыты
boy illustration
Сравнительная таблица описания кодов ошибок Amap
boy illustration
Уведомление о последних правилах Points Mall в декабре 2022 года.
boy illustration
Даже новички могут быстро приступить к работе с легким сервером приложений.
boy illustration
Взгляд на RSAC 2024|Защита конфиденциальности в эпоху больших моделей
boy illustration
Вы используете ИИ каждый день и до сих пор не знаете, как ИИ дает обратную связь? Одна статья для понимания реализации в коде Python общих функций потерь генеративных моделей + анализ принципов расчета.
boy illustration
Используйте (внутренний) почтовый ящик для образовательных учреждений, чтобы использовать Microsoft Family Bucket (1T дискового пространства на одном диске и версию Office 365 для образовательных учреждений)
boy illustration
Руководство по началу работы с оперативным проектом (7) Практическое сочетание оперативного письма — оперативного письма на основе интеллектуальной системы вопросов и ответов службы поддержки клиентов
boy illustration
[docker] Версия сервера «Чтение 3» — создайте свою собственную программу чтения веб-текста
boy illustration
Обзор Cloud-init и этапы создания в рамках PVE
boy illustration
Корпоративные пользователи используют пакет регистрационных ресурсов для регистрации ICP для веб-сайта и активации оплаты WeChat H5 (с кодом платежного узла версии API V3)
boy illustration
Подробное объяснение таких показателей производительности с высоким уровнем параллелизма, как QPS, TPS, RT и пропускная способность.
boy illustration
Удачи в конкурсе Python Essay Challenge, станьте первым, кто испытает новую функцию сообщества [Запускать блоки кода онлайн] и выиграйте множество изысканных подарков!
boy illustration
[Техническая посадка травы] Кровавая рвота и отделка позволяют вам необычным образом ощипывать гусиные перья! Не распространяйте информацию! ! !
boy illustration
[Официальное ограниченное по времени мероприятие] Сейчас ноябрь, напишите и получите приз
boy illustration
Прочтите это в одной статье: Учебник для няни по созданию сервера Huanshou Parlu на базе CVM-сервера.
boy illustration
Cloud Native | Что такое CRD (настраиваемые определения ресурсов) в K8s?
boy illustration
Как использовать Cloudflare CDN для настройки узла (CF самостоятельно выбирает IP) Гонконг, Китай/Азия узел/сводка и рекомендации внутреннего высокоскоростного IP-сегмента
boy illustration
Дополнительные правила вознаграждения амбассадоров акции в марте 2023 г.
boy illustration
Можно ли открыть частный сервер Phantom Beast Palu одним щелчком мыши? Супер простой урок для начинающих! (Прилагается метод обновления сервера)
boy illustration
[Играйте с Phantom Beast Palu] Обновите игровой сервер Phantom Beast Pallu одним щелчком мыши
boy illustration
Maotouhu делится: последний доступный внутри страны адрес склада исходного образа Docker 2024 года (обновлено 1 декабря)
boy illustration
Кодирование Base64 в MultipartFile
boy illustration
5 точек расширения SpringBoot, супер практично!
boy illustration
Глубокое понимание сопоставления индексов Elasticsearch.
boy illustration
15 рекомендуемых платформ разработки с нулевым кодом корпоративного уровня. Всегда найдется та, которая вам понравится.
boy illustration
Аннотация EasyExcel позволяет экспортировать с сохранением двух десятичных знаков.