- Вопросы админам 2.0
- Железячные вопросы
- Просмотр информации о железной составляющей сервера
- Модели процессора, количестве физических и логических ядер, поддерживаемых инструкциях, режиме работы?
- Типы оперативной памяти, модели материнской платы, версии BIOS?IOS?
- Текущих значениях датчиков напряжения, температуры, оборотов вентиляторов?
- Типе используемого сетевого адаптера и состоянии его интерфейсов?
- Подключённых USB и PCI устройствах?
- Linux
- Расскажи, как происходит процесс загрузки ОС linux с момента нажатия кнопки питания.
- Что такое POSIX
- Что такое уровни выполнения
- Какие основные части компоненты включает в себя система на базе дистрибутива linux?
- Что такое BIOS, UEFI?
- Что такое PXE? Как загрузиться по сети?
- Что такое ядро, initramfs, загрузчик?
- Зачем нужна система инициализации? Какие системы инициализации используются в современных дистрибутивах? 2 - 5 штук init
- Что такое systemd и init ? В чем основное преимущество первого над вторым ?
- Как понять используется ли в системе systemd?
- Опишите, что происходит с точки зрения процессов, при выполнении любой команды в консоли, например:
- Как посмотреть нагрузку на диски?
- В чем разница между объявлением переменной export VAR="VALUE" и VAR="VALUE" в bash?
- Что значит $@ в bash?
- Как выполнить фильтрацию вывода команды, чтобы на экран были выведены только ошибки STDERR, истрорируя STDOUT?
- Как посмотреть описание дискриптора? Как посмотреть время последней модификации файла?
- Как работает sudo? Для чего она используется?
- Что такое userspace, kernelspace? Чем они отличаются?
- Что такое системные вызовы? Зачем они нужны и как они работают? Какие системные вызовы знаешь 5-10
- Где можно найти информацию о конкретном системном вызове?
- Что делает команда kill?
- Текущая load average на сервере - 900, 900, 900. Сервер работает с незначительной потерей производительности. Каким образом можно понять, является ли это нормальной ситуацией?
- Что такое процесс? Что такое тред? В чем заключаются их главные отличия?
- Где в linux хранится информация о процессах?
- Представлен вывод команды top. Что означает каждая запись в выводе?
- Что показывает статус процессов? Какие статусы используются в linux?
- Что такое зомби-процесс? Как можно создать такой процесс?
- Чем опасны зомби процессы, какие проблемы они могут создать?
- Что такое SIGCHLD? В какой ситуации процесс может его получить?
- Что такое файловый дескриптор, какая информация в нем бывает?
- Для чего нужны сигналы? Какие сигналы используются чаще всего? 5 - 10 штук
- Как осуществляется обработка сигналов? Чем отличается SIGTERM от SIGKILL?
- Какой сигнал получит активный процесс при нажатии Ctrl+C в консоли?
- Что такое load average? Что показывает эта метрика? Почему load average состоит из трёх значений?
- Можно ли сделать так, чтобы пользователи могли получать информацию только о своих процессах?
- Что такое физическая память?
- Что такое виртуальная память?
- Почему в htop может быть не до конца корректная сводка по потребляемой памяти
- Где в системе можно посмотреть сводку по текущему потреблению памяти?
- Как работает оом киллер и для чего нужен? Out of memory, oom
- Как процессы в системе взаимодействуют между собой?
- a=5; true | { true && a=10; } чему будет равно a?
- Что такое QEMU
- Что такое KVM гипервизор
- Что такое qemu-kvm?
- Что такое iowait и почему он может появляться?
- Диски и файловая система
- Что такое символьные устройства? Какие элементарные операции с ними можно производить?
- Что такое major and minor numbers блочных устройств, чему они соответствуют?
- Что такое файловая система? Для чего она нужна?
- Как создать файловую систему на блочном устройстве? Какие параметры можно задать при создании?
- Где физически находятся inodes айноды
- По какой причине и на какого типа системах айноды могут закончиться? И к чему это может привести?
- Какая файловая система бывает динамическими айнодами?
- Где хранится информация об именах файлов, директорий?
- Каким образом осуществляется монтирование ФС? Как можно посмотреть список примонтированных ФС? 2 - 3
- Что такое псевдофайловая система?
- Какую файловую систему выбрать ext4 или xfs?
- Как определить, на каком физическом жёстком диске находится раздел с файловой системой? Как можно идентифицировать этот носитель без выключения сервера?
- Как узнать, какими процессами используется раздел? lsof, fuser, grep within procfs
- Для чего необходимы файлы /etc/fstab, /etc/mtab, /etc/mdadm/mdadm.conf?
- Отличие хардлинков от симлинков hardlinks symlinks
- Что такое RAID? Какие основные типы RAID существуют, чем они
- Какие средства для работы с программными RAID массивами существуют в linux?
- Что такое LVM? Для решения каких задач он предназначен?
- Что такое loop devices? Как их можно использовать?
- При создании нового файла система возвращает ошибку no space left device
- df сообщает о наличии 20 Гб занятого пространства, подсчёт занятого файлами места при помощи du даёт результат в 20 Мб. При каких обстоятельствах может возникнуть описанная ситуация?deleted files
- При создании нового файла пользователем система возвращает ошибку no space left on device
- Debug
- Сервер не отвечает, как можно получить доступ к серверу, не находясь непосредственно в ЦОДе
- Веб-сервер, работающий на сервере в нашей сети, отдаёт ошибку 502. Каким образом можно найти причину ошибки?
- В директории находится файл с нечитаемым содержимым. Каким образом можно узнать формат хранения данных и предназначение файла?
- Попытка запуска исполняемого файла завершается ошибкой no such file or directory. Почему?
- Программа сообщает о том, что не может найти свой конфигурационный файл. Каким образом можно узнать, где она пытается его найти?
- Что будешь делать если у команды chmod убрали права на исполнение? chmod -x chmod
- База сейчас сидит и упирается в диск. И с ней ничего не сделать — больше сервер никто покупать не будет. Как сделать так, чтобы оно работало быстрее прямо сейчас?
- Почему доступной available памяти сейчас 2919, если свободной free памяти 843?
- Что такое разделяемая память?
- Сервер под нагрузкой тормозит - тяжелые запросы к кассандре и ELK отрабатывают сильно медленнее чем раньше и чем другие аналогичные сервера.
- Docker контейнеры
- Что такое docker и какие инструменты liunx лежат в основе? Для чего он используется?
- Что такое контейнеры, образы? В чём заключаются концепции их использования?
- В каком виде хранятся образы? Для чего используются слои? Что представляет собой overlayfs?
- Каким образом в docker реализована изоляция контейнеров друг от друга? Какие средства linux для этого используются?namespace
- Почему в контейнере можно увидеть только процессы, запущенные в самом контейнере?
- В папке /var/lib/docker/ как понять какая папка к какому контейнеру принадлежит
- Можно ли настроить сетевое взаимодействие между двумя docker-контейнерами? Как это реализовано?
- Можно ли ограничить использование ресурсов cpu, ram, io, network для docker контейнера? Как это реализовано? cgroup**
- Для решения каких задач применяется docker-compose?
- Что такое виртуализация? Чем виртуализация отличается от эмуляции?
- В чем разница между docker stop и docker pause?
- Что такое слои в докере?
- В чем разница между ADD и COPY
- Почему latest образы использовать нежелательно?
- В чем отличие ARG от ENV?
- От кого по умолчанию запускается контейнер? Почему это плохо?
- Как убить контейнер изнутри?
- Возможен ли самостоятельный перезапуск контейнера?
- Какие есть best practices для написания Dockerfile?
- Что такое ката kata контейнер?
- Сети сеть
- Почему latency до 8.8.8.8 всегда низкий?
- Расскажи мне, как неподготовленному слушателю как устанавливает соединение SSH и происходит авторизация разными методами: по паролю и SSH-ключам.
- Что такое IP и маска подсети?
- Что такое и зачем нужен ARP протокол?
- Зачем нужен VLAN?
- Чем отличается TCP от UDP?
- Как TCP устанавливает соединение?
- Как TCP поддерживает соединение?
- Что происходит когда в браузере вводишь yandex.ru? Описать процесс
- На каком уровне работает протокол TCP?
- На каком уровне оси работает ssh?
- Как работает DNS, зачем он нужен?
- Как работает NAT, зачем он нужен?
- Что такое ARP, зачем нужен? Также зачем нужен IP и MAC
- Что такое SNI?
- Что такое TLS и SSL
- Чем симметричное шифрование отличается от ассиметричного?
- Почему DNS использует UDP?
- Как работает ICMP
- Что такое authority в DNS?
- Что такое рекурсивный DNS
- Рекурсивный и нерекурсивный запрос к серверу dns
- Базовая http аутентификация авторизация, как работает
- Как работают сертификаты? Как подтверждается соединение?
- Опиши принцип работы ssl-шифрования
- Какие стандартные коды ответов есть у веб-серверов?
- Какие существуют основные типы запросов HTTP?
- Что такое маска подсети?
- Ansible
- Для чего нужен ad hoc в ansible?
- Что такое роли в ansible, пример
- Что такое идемпотентность? Приведи пример таких операций, и противоположных им
- Для чего нужны хендлеры, handlers?
- В чем разница pull и push модели?
- В чем плюсы ансибла?
- Опишите основные примитивы Ansible
- В чем разница между модулем и плагином**
- СУБД Базы Mysql
- Что такое роли в pgsql
- Python
- Какое значение принимает переменная в Python, которая не имеет значения?
- KUBERNETES
- Что такое kubernetes?
- Какую проблему решает kubernetes?
- Что такое minikube?
- Приведи пример проблемы, которая упрощает работу именно с использованием кубернетеса?
- В чем отличие statefulset от Deployment?**
- В чем отличие Deployment от Replicaset?
- Что такое Readiness, Liveness, Startup пробы, какое отличие?
- Что такое оператор в kubernetes?
- Что такое узел, нода?
- Опиши архитектуру кубернетес кластера, из чего состоит?
- Что такое pod?
- В чем разница между подом и контейнером?**
- Может ли под запуститься на двух разных узлах?
- Что такое ReplicaSet?
- Что такое Deployment?
- Что такое Service
- Какие типы service бывают?
- то такое Ingress
- Что такое Job
- Что такое CronJob
- Что означает версия api apiVersion
- Что такое namespace?
- Что такое Volume
- Какие бывают типы файловых хранилищ
- Что такое configMap?
- Что такое Secret
- Что такое PersistentVolume, PersistentVolumeClaim
- Что такое nodeSelector, nodeName?
- DaemonSet зачем нужен для чего его обычно используют?**
- Что такое Taints, Tolerations?
- Что такое Requests, Limits?
- Affinity, anti-affinity**
- Что такое Helm
- Через что реализованы сети в kubernetes? need answer
- Что произойдет при изменении имейджа? Как будут докатываться изменения?
- GIT
- Ответ
Через IPMI или kvm если оно есть на сервере.
-
Ответ
KVM (или kvm over ip) — устройство, позволяющее передавать видеосигнал и ввод с мыши/клавиатуры по сети с использованием IP-протокола от вашего сервера. При помощи KVM вы можете перезагрузить сервер, получить доступ в BIOS сервера и к другим функциям, которые невозможно выполнить на сервере через терминал. То есть он обособлен от операционной системы.
У нас как я понимаю используется уже как последнее средство. Сервер не грузится, или есть ещё какой-то программный сбой.
KVM - клавиатура монитор(видео) мышь
-
Ответ
IPMI (Intelligent Platform Management Interface) – это интерфейс для удаленного мониторинга и управления физическим состоянием сервера.
Как я понимаю, модуль находится внутри самого сервера. И называется он BMC. Контроллер управления.
В случае утраты контроля над работой сервера, можно удаленно управлять его работой, а именно:
-
получить доступ к консоли, изменить настройки BIOS;
-
перезагрузить, включить/выключить сервер;
-
ознакомится с состоянием сервера (слежение за температурными датчиками, датчиками напряжения, состояние блока питания, скорость вращения вентиляторов);
-
подключение образов .iso.
Но вообще, BMC ― это отдельный компьютер со своим программным обеспечением и сетевым интерфейсом, который распаивают на материнской плате или подключают как плату расширения по шине PCI management bus.
К BMC контроллеры подключаются через интерфейс IPMB (Intelligent Platform Management Bus ― шина интеллектуального управления платформой). IPMB ― это шина на основе I2C (Inter-Integrated Circuit), по которой BMC перенаправляет команды управления к различным частям архитектуры:
- Общается с дополнительными контроллерами (MCs)
- Считывает данные сенсоров (Sensors)
- Обращается к энергонезависимому хранилищу (Non-Volatile Storage)
Архитектура IPMI реализована так, что удаленный администратор не имеет прямого доступа к компонентам системы. Например, чтобы получить данные с сенсоров, удаленный администратор посылает команду на BMC, а BMC в свою очередь обращается к сенсорам.
-
-
Ответ
Недостатки модуля IP-KVM в сравнении с IPMI
Традиционные внешние IP-KVM устройства позволяют вам удаленно работать только с консолью своего сервера, отсутствует возможность управления питанием, монтирования образов и контроля состояния датчиков сервера.
У IP-KVM есть несколько ключевых недостатков:
- отсутствие постоянного доступа к управлению сервером (чтобы воспользоваться IP-KVM, вам нужно создать запрос в техподдержку с просьбой подключить к вашему серверу временный IP-KVM в датацентре; заявку желательно подавать заранее, подключение занимает от 15 до 30 минут в лучшем случае; в подключении KVM может быть отказано, если сейчас в наличии нет свободного оборудования);
- отсутствие возможности управлять питанием, монтировать образы и контролировать состояние датчиков сервера.
Модели процессора, количестве физических и логических ядер, поддерживаемых инструкциях, режиме работы?
-
Ответ
- Модель процессора
proc/cpuinfo
model name : Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz model : 45
Та же модель процессора через
lscpu
Model name: Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz
Ядра физические и логические
vm13 : ~ [0] # grep "cpu cores" /proc/cpuinfo |sort -u |cut -d":" -f2 4 vm13 : ~ [0] # grep -c "processor" /proc/cpuinfo 4
Поддерживаемые инструкции /proc/cpuinfo и lscpu
Но возможно стоит в спецификацию посмотреть
Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ss ht syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon rep_good nopl xtopology pni pclmulqdq vmx ssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx hypervisor lahf_lm kaiser tpr_shadow vnmi flexpriority ept vpid tsc_adjust xsaveopt arat
режимы работы
find / -name scaling_governor
find / -name scaling_max_freq
cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
- powersave — режим энергосбережения, ядро будет работать на пониженных частотах
- ondemand — режим зависящей от текущей нагрузки на ядро
- performance — режим максимальной мощности, выставляет максимально возможную частоту
- Физические ядра - это число физических ядер, реальных аппаратных компонентов. Логические ядра - это число физических ядер, умноженное на количество потоков, которые могут выполняться на каждом ядре с помощью гиперпотока. например, мой 4-ядерный процессор запускает два потока на ядро, поэтому у меня есть 8 логических процессоров.
Узнать сколько ядер доступно можно командой:
dmidecode -t processor | grep "Core Enabled:" Core Enabled: 6 Core Enabled: 6
Видим, что на данной системе находится 12 физических ядер (6+6). Соответственно, нормальный показатель LA должен быть менее 12. Однако, на процессорах Intel используется технология Hyper-Threading, которая делит одно физическое ядро на два логических.
dmidecode -t processor | grep "Thread Count:" Thread Count: 12 Thread Count: 12
Соответственно, в данном случае в системе может быть одновременно 24 виртуальных процессора (потока).
Технология Turbo Boost позволяет процессору «разгоняться» и работать на частоте выше заявленной (т.е. выше 100%, выше единицы). Какой показатель LA считать нормальным в данном случае является предметом споров.
- Модель процессора
Оперативная память
```python
dmidecode --type memory
# dmidecode --type 17
# dmidecode 2.11
SMBIOS 2.8 present.
Handle 0x1100, DMI type 17, 40 bytes
Memory Device
Array Handle: 0x1000
Error Information Handle: Not Provided
Total Width: Unknown
Data Width: Unknown
Size: 9216 MB
Form Factor: DIMM
Set: None
Locator: DIMM 0
Bank Locator: Not Specified
Type: RAM
Type Detail: Other
Speed: Unknown
Manufacturer: QEMU
Serial Number: Not Specified
Asset Tag: Not Specified
Part Number: Not Specified
Rank: Unknown
Configured Clock Speed: Unknown
Handle 0x004F, DMI type 17, 34 bytes
Memory Device
Array Handle: 0x003F
Error Information Handle: Not Provided
Total Width: 72 bits
Data Width: 64 bits
Size: 16384 MB
Form Factor: DIMM
Set: None
Locator: P2_DIMMH2
Bank Locator: Node1_Bank0
Type: DDR3
Type Detail: Registered (Buffered)
Speed: 1333 MHz
Manufacturer: Samsung
Serial Number: 85D3A920
Asset Tag: Dimm10_AssetTag
Part Number: M393B2G70BH0-Y
Rank: 2
Configured Clock Speed: 1333 MHz
```
Материнская плата
```python
dmidecode --type baseboard
Handle 0x0002, DMI type 2, 15 bytes
Base Board Information
Manufacturer: Supermicro
Product Name: X9DR3-F
Version: 0123456789
Serial Number: VM16BS021748
Asset Tag: To be filled by O.E.M.
Features:
Board is a hosting board
Board is replaceable
Location In Chassis: To be filled by O.E.M.
Chassis Handle: 0x0003
Type: Motherboard
Contained Object Handles: 0
```
Версия bios
```bash
storage8 : ~ [130] # dmidecode --type BIOS
# dmidecode 2.11
SMBIOS 2.7 present.
Handle 0x0000, DMI type 0, 24 bytes
BIOS Information
Vendor: American Megatrends Inc.
Version: 3.2a
```
-
Ответ, нужно дополнить
Температура и всякие такие штуки можно смотреть в
sensors
sorsstorage13 : ~ [0] # sensors coretemp-isa-0001 Adapter: ISA adapter Core 0: +32.0°C (high = +85.0°C, crit = +95.0°C) Core 1: +36.0°C (high = +85.0°C, crit = +95.0°C) Core 9: +27.0°C (high = +85.0°C, crit = +95.0°C) Core 10: +39.0°C (high = +85.0°C, crit = +95.0°C) intel5500-pci-00a3 Adapter: PCI adapter temp1: +65.5°C (high = +100.0°C, hyst = +95.0°C) (crit = +110.0°C) coretemp-isa-0000 Adapter: ISA adapter Core 0: +39.0°C (high = +85.0°C, crit = +95.0°C) Core 1: +38.0°C (high = +85.0°C, crit = +95.0°C) Core 9: +31.0°C (high = +85.0°C, crit = +95.0°C) Core 10: +29.0°C (high = +85.0°C, crit = +95.0°C)
Но большая часть информации через ipmicfg может взяться
hocking : ~ [0] # ipmicfg -pminfo [SlaveAddress = 78h] [Module 1] Item | Value ---- | ----- Status | [STATUS OK] (00h) Input Voltage | 227.2 V Input Current | 0.52 A Main Output Voltage | 12.09 V Main Output Current | 9.37 A Temperature 1 | 33C/91F Temperature 2 | 41C/106F Fan 1 | 3968 RPM Fan 2 | 0 RPM Main Output Power | 113 W Input Power | 126 W PMBus Revision | 0x22 PWS Serial Number | P7061VF28GT1194 PWS Module Number | PWS-706P-1R PWS Revision | 1.1 Current Sharing Control | Active - Active (80) [SlaveAddress = 7Ah] [Module 2] Item | Value ---- | ----- Status | [STATUS OK] (00h) Input Voltage | 226.5 V Input Current | 0.59 A Main Output Voltage | 12.09 V Main Output Current | 10.50 A Temperature 1 | 35C/95F Temperature 2 | 41C/106F Fan 1 | 4384 RPM Fan 2 | 0 RPM Main Output Power | 127 W Input Power | 147 W PMBus Revision | 0x22 PWS Serial Number | P7061VF28GT1193 PWS Module Number | PWS-706P-1R PWS Revision | 1.1 Current Sharing Control | Active - Active (80)
-
Ответ дополнить
storage13 : ~ [0] # lspci | grep net 01:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) 01:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
vm13 : ~ [0] # lshw -class network -short H/W path Device Class Description ================================================= /0/100/12 eth0 network Virtio network device /0/100/13 eth1 network Virtio network device /1 vethd2a5488 network Ethernet interface /2 vethd29a7c3 network Ethernet interface /3 veth12f3f63 network Ethernet interface /4 veth39864d5 network Ethernet interface /5 vethbe4b44c network Ethernet interface /6 veth62b367d network Ethernet interface /7 veth26cd9d1 network Ethernet interface /8 veth2ab7aa7 network Ethernet interface /9 vethb7e97f1 network Ethernet interface
vm13 : ~ [255] # ip a s eth0 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether 3e:8e:90:47:59:70 brd ff:ff:ff:ff:ff:ff inet 5.101.156.76/24 brd 5.101.156.255 scope global eth0
Или так
vm13 : ~ [0] # ip link show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000 link/ether 3e:8e:90:47:59:70 brd ff:ff:ff:ff:ff:ff 3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000 link/ether 2e:84:f2:32:05:88 brd ff:ff:ff:ff:ff:ff
Здесь можно увидеть понятие up, означает что интерфейс поднят
- UP — устройство подключено и готово принимать и отправлять фреймы;
- LOOPBACK — интерфейс является локальным и не может взаимодействовать с другими узлами в сети;
- BROADCAST - устройство способно отправлять широковещательные фреймы;
- POINTTOPOINT — соединение типа «точка-точка»
- PROMISC — устройство находится в режиме «прослушивания» и принимает все фреймы.
- NOARP — отключена поддержка разрешения имен сетевого уровня.
- ALLMULTI — устройство принимает все групповые пакеты.
- NO-CARRIER — нет связи (не подключен кабель).
- DOWN — устройство отключено.
Еще можно вот так посмотреть:
ls /sys/class/net altdocker-sys docker0 eth1 veth12f3f63 veth2ab7aa7 veth62b367d vethbe4b44c vethd2a5488 br-a67eedd3a789 eth0 lo veth26cd9d1 veth39864d5 vethb7e97f1 vethd29a7c3
-
Ответ
PC
lspci -vvv
USB
lsusb -vvv
-
Написать как грузится система
Этапы следующие
- При включении компьютера цп переходит на адрес биоса и загружает биос.
- Биос, или uefi проходит кучу проверок и согласно своим проверкам носитель информации.
- На носителе находится MBR или GPT где находится загрузчик. Дальше по обстоятельствам. Загрузчик может загружать ось, а может передать дальше. Например, если у нас несколько систем на нескольких разделах.
Под первой частью загрузки подразумевается небольшая часть машинного кода, которая запускает второй загрузчик. Потому что выделяется 446 байт. Там ничего не поместится. 4. Итого загрузчик первого этапа загружает загрузчик второго и кладет данные в оперативку. Загрузчик, зная где лежит загрузчик ос, грузит его, и грузит initial run disk - там конфигурационные файлы, которые нужны для загрузки ядра.
- Затем ядро берет всё на себя. Инициализация устройств, конфигурирование процессора, памяти
- Далее запускается пользовательская среда, процесс init
Начало начал инициализация работы компьютера
Перед включением нужно послать какой-то сигнал, чтобы начать вообще инициализацию
Есть интеллектуальный способ, есть дедовской.
Интеллектуальный - послать сигнал через wake on lan
Дедовской - через кнопку. То есть через блок питания. AC Power Loss. Он принимает три состояния
- Power Off — сервер останется выключенным.
- Power On — сервер включится.
- Last State — сервер включится, только если на момент потери питания он был включен.
Для запуска процессору отправится сигнал Reset
Полная подробная статья по ссылке: https://vc.ru/dev/137548-pusk-v-detalyah-kak-zagruzhaetsya-server
-
Ответ
Это интерфейс портативных операционных систем.
«Портативность», в контексте стандарта POSIX, относится к исходному коду (не к бинарникам, которые из этих самых исходников собираются).
«интерфейс» — это взаимодействие вашего кода с остальным кодом.
Это такое описание общее как с нами будут работать программы. Можно взять программу из одной ос и без проблем запустить на другой. Семафоры. Разделение одного и того же ресурса.
Как управлять потоками, как держаться, и все такое.
-
Ответ
В Linux существует такое понятие как уровень выполнения (run level). Уровень выполнения обозначается числами от 0 до 6.
Система в определенный момент времени находится на соответствующем уровне выполнения. Вы, как администратор системы, можете переводить её с одного уровня выполнения на другой. Это делается при помощи программы init (или telinit). Для этого программе в качестве аргумента передается число, соответствующее уровню выполнения.
- 0 — выполняются действия по выключению системы.
- 1 — однопользовательский режим (single user mode). Предназначен для различных административных действий по восстановлению системы. По своему смыслу аналогичен Safe Mode Windows, но полностью его не повторяет. На этом уровне выполнения система полностью сконфигурирована, но не запущен ни один сервис, а из пользователей может работать только один root.
- 2 — не используется, но сконфигурирован как уровень выполнения 3. В RedHat и SuSE Linux сконфигурирован как уровень выполнения 3, но без поддержки сетевых файловых систем. В Debian используется как многопользовательский режим.
- 3 — многопользовательский режим (multiuser mode). Нормальный режим работы сервера.
- 4 — В Slackware Linux используется для графического входа в систему. В RedHat и SuSE Linux не сконфигурирован.
- 5 — В RedHat и SuSE Linux используется для графического входа в систему. В Slackware Linux не сконфигурирован.
- 6 — выполняются действия по перезагрузке системы.
- Написать ответ
- Начальный загрузчик. GRUB
- Ядро Linux. Ядро это центральная часть системы, которая управляет процессором, памятью, устройствами ввода вывода
- Демоны. Фоновые процессы
- Командная оболочка
- Утилиты командной оболочки
- Графический сервер. x.org, он управляет вдиокартой, монитором, мышью. и другими устройствами
- Среда рабочего стола. KDE, Chiamon, и тд. Они также включают в себя утилиты, например, файловый менеджер
- Программы рабочего стола. Например, определенные файловые менеджеры в определенной среде
-
Написать ответ
BIOS - Basic Input-Output System. Это низкоуровневое по. Располагается на чипе пк на материнке. Он загружается при запуске пк, и отвечает за пробуждение аппаратных компонентов пк, обеспечивает правильную их работу. И запускает загрузчик
При включении биос проходит самотестирование POST(Power-On Self Test) при включении питания перед загрузкой ОС. Он проверяет правильность конфигурации оборудования и его правильную работу. Если что-то пойдет не так, он будет пищать или покажет код проваленного теста. Затем биос ищет загрузочную запись или MBR, и запускает загрузчик
Есть еще CMOS. Это дополнительный металл оксид-полупроводник. Это память с батарейкой, где биос хранит настройки на плате.
БИОС устарел, и имеет ограничения.
- Может загружаться с дисков с объемом 2.1ТБ и меньше. Так работает MBR в биос
- Биос должен работать в режиме 16-разрядного процессора и имеет 1мб свободного места.
- Имеет проблемы с инициализацией нескольких аппаратных устройств одновременно.
В 2007 согласовали новый стандарт. UEFI. И он интелом не управляется
UEFI замена биосу.
По факту это новый стандарт, который решает ограничения биоса
- Может грузиться с дсисков емкостью 2.2 ТБ. Предел 9.4 зетабайта. Это больше чем все данные в интернете. Использует GPT.
- UEFI работает в 32 битном или 64 битном режиме. Имеет более адресумое адресное пространство. Загружается быстрее. Поэтому в uefi есть поддержка мыши, графика. Хоть и необяхательно.
- В uefi появилась безопасная загрузка чтобы проверить по на достоверность.
- Поддержка сетевых функций в прошивке.
- По факту это кршечная ось, которая работает поверх прошивки пк, и делает больше, чем биос. Он может храниться на флеш памяти.
-
Написать ответ
Сервер, предоставляющий загрузку по сети PXE. Фишка в том, что это позволяет устанавливать ось не ходя всё время со флешкой
(Pre Execution Environment).
Выглядит так - питание → BIOS → стек сетевой платы ЗЧУ → программа сетевой загрузки NBP, которая загружается с TFTP сервера в память машины, и дальше грузится образ.
Заходим в биос, адванс. Будет что-то типа LAN boot
При фаст буте будет что-то типа Network Atheros Boot Agent
-
Написать ответ
Ядро - это самый низкий уровень программного обеспечения, которое взаимодействует с аппаратными средствами компьютера. Оно отвечает за взаимодействие всех приложений, работающих в пространстве пользователя вплоть до физического оборудования.
Initframs - основная цель предоставить пользователю его файлы, которые размещены в файловой системе. То есть для ядра нужно найти, примонтировать файловую систему и предоставить юзеру.
Загрузчик операционной системы — системное программное обеспечение, обеспечивающее загрузку операционной системы непосредственно после включения компьютера (процедуры POST) и начальной загрузки.
Зачем нужна система инициализации? Какие системы инициализации используются в современных дистрибутивах? (2 - 5 штук) (init)
-
Ответ
В операционной системе Linux и других системах семейства Unix после завершения загрузки ядра начинается инициализация Linux системы, сервисов и других компонентов. За это отвечает процесс инициализации, он запускается ядром сразу после завершения загрузки, имеет PID 1, и будет выполняться пока будет работать система.
За время развития операционных систем были созданы различные системы инициализации Linux. В разных дистрибутивах использовались разные системы
Есть init. Это первый процесс, родительский процесс, которые все процессы запускает. Проверка, монитрование файловых систем, запуск служб.
Есть три его варианты работы
System V init (SysV)
Это загрузка, основанная на уровне запуска. Обычно их семь. Ну там включение, выключение, режим восстановления и тп.
То есть процесс инициализирует на одном из уровней запуска системы
SystemD
Родительский процесс, который запускает инициализацию в ускоренном режиме за счет параллельного запуска задач. Ускоренный режим достигается за счет особенностей работы процессора. И если они позволяют, запускает инициализацию параллельно.
Upstart
Здесь запускаются скрипты инициализации, отслеживает события, и реагирует на них. Более гибкий процесс инициализации. Если какая-то служба не запустилась, или вдруг упала, то апстарт это отследит и запустит повторно.
-
Ответ
В чём конкретно преимущества для меня:
- Параллельный старт процессов, в отличие от init
- Запуск системы с ним быстрее происходит.
- Не нужно городить костыли на баше — использую простенький шаблон для юнитов, в отличие от баш портянки.
- Не нужно городить километровые пайпы для чтения нужной информации из логов — для всего есть человекопонятные опции;
- Автоматический рестарт юнитов при падении — не нужно плясать с бубном вокруг ряда сервисов, если выпал один промежуточный;
- Простая и понятная настройка всего — несколько конфигов (а не тонны, раскиданные по всей системе, как было в легаси) с парами ключ=значение;
- Хорошая документированность (я не говорю, что легаси-набор плохо документирован, я лишь говорю, что systemd не уступает);
- Он не только загрузчик, но и система инициализирующая демоны
-
Ответ
/run/systemd/
говорит о наличии systemd в системе./run/systemd/system/
- говорит о том, что это активная система инициализацииМожно через stat узнать
Если есть симлинк - используется systemd.
stat /sbin/init File: ‘/sbin/init’ -> ‘../lib/systemd/systemd’
Можно сделать ещё через процесс 1, и через файловую систему /proc
:
root@swfuse:~# stat /proc/1/exe
File: /proc/1/exe -> /lib/systemd/systemd
Size: 0 Blocks: 0 IO Block: 1024 symbolic link
Device: 4h/4d Inode: 444358 Links: 1
Access: (0777/lrwxrwxrwx) Uid: ( 0/ root) Gid: ( 0/ root)
Access: 2022-06-20 00:00:01.579875809 +0000
Modify: 2022-06-09 17:19:41.581240179 +0000
Change: 2022-06-09 17:19:41.581240179 +0000
Опишите, что происходит (с точки зрения процессов), при выполнении любой команды в консоли, например:
$ ls -l
-
Ответ
При выполнении команды в консоли происходит системный вызов fork(), в результате которого создаётся копия процесса консоли, затем копия процесса выполняет команду с помощью системного вызова exec().
После выполнения команды, копия процесса выполняет системный вызов exit(), в результате которого оригинальному процессу консоли отправляется сигнал SIGCHLD (сообщающий о том, что дочерний процесс завершён).
Во время работы копии процесса, оригинальный процесс находится в ожидании из-за системного вызова wait().
Как работает система разграничения доступа к файлам в linux? Какие возможности она предоставляет?
-
Ответ
https://webistore.ru/administrirovaniye-unix/prava-dostupa-k-fajlam-i-direktoriyam-v-linux-chast-1/
https://webistore.ru/administrirovaniye-unix/prava-dostupa-k-fajlam-i-direktoriyam-v-linux-chast-2/
https://webistore.ru/administrirovaniye-unix/prava-dostupa-k-fajlam-i-direktoriyam-v-linux-chast-3/
- Оболочка проверяет, являетесь ли вы владельцем файла, к которому вы хотите получить доступ. Если вы являетесь этим владельцем, вы получаете разрешения и оболочка прекращает проверку.
- Если вы не являетесь владельцем файла, оболочка проверит, являетесь ли вы участником группы, у которой есть разрешения на этот файл. Если вы являетесь участником этой группы, вы получаете доступ к файлу с разрешениями, которые для группы установлены, и оболочка прекратит проверку.
- Если вы не являетесь ни пользователем, ни владельцем группы, вы получаете права других пользователей (Other).
-
Ответ
Установить утилиту
sysstat
, проверить нагрузку на дискиiostat -xtc
. 1.
-
Ответ
При объявлении переменной через export - переменная будет доступна в любых других процессах.
При обычном объявлении переменной - перемнная будет доступна только в запущенном процессе.
-
Ответ
$@
- все параметры переданные скрипту.
Как выполнить фильтрацию вывода команды, чтобы на экран были выведены только ошибки (STDERR), истрорируя STDOUT?
-
Ответ
cmd 2>&1 >/dev/null | grep pattern
-
Ответ
Посмотреть полную информацию по дискриптору возможно командой
stat <path_to_file>
.Время модификации:
stat --format=%y dira
-
Ответ
Команда sudo означает подменить пользователя и выполнить. Расшифровывается именно так - substitute user and do
По умолчанию от суперпользователя.
Например, вот эта команда
sudo whoami
И вот эта
sudo -u swfuse whoami
Будет отличаться.
Можно просмотреть полномочия
sudo -l
-
Ответ
Под пользовательским пространством понимается весь код операционной системы, который находится вне ядра.
Большинство Unix-подобных операционных систем (включая Linux) поставляются с разнообразными предустановленными утилитами, средствами разработки и графическими инструментами — это все приложения пространства пользователя.
Все пользовательские приложения (и контейнеризированные и нет) при работе используют различные данные, но где эти данные хранятся?
Какие-то данные поступают из регистров процессора и внешних устройств, но чаще они хранятся в памяти и на диске. Приложения получают доступ к данным, выполняя специальные запросы к ядру — системные вызовы. Например, такие как выделение памяти (для переменных) или открытие файла. В памяти и файлах часто хранится конфиденциальная информация, принадлежащая разным пользователям, поэтому доступ к ним должен запрашиваться у ядра с помощью системных вызовов.
Ядро обеспечивает абстракцию для безопасности, оборудования и внутренних структур данных. Например, системный вызов open() используется для получения дескриптора файла в Python, C, Ruby и других языках программирования. Вряд ли бы вы хотели, чтобы ваша программа работала с XFS на уровне битов, поэтому ядро предоставляет системные вызовы и работает с драйверами. Фактически этот системный вызов настолько распространен, что является частью библиотеки POSIX .
-
Краткое определние
- Пользовательское пространство представляющее собой набор местоположений, в которых выполняются обычные пользовательские процессы (т. е. все, кроме ядра). Роль ядра состоит в том, чтобы управлять приложениями, работающими в этом пространстве, от взаимодействия друг с другом и с машиной.
- Пространство ядра , то есть место, где хранится и выполняется код ядра.
Пользовательское пространство имеет доступ к ограниченной памяти, ядро имеет всю память.
И чтобы работать приложения взаимодествуют через интерфейс, которое называется системным вызовом.
Что такое системные вызовы? Зачем они нужны и как они работают? Какие системные вызовы знаешь (5-10)
-
Ответ
Системный вызов — это то, посредством чего код приложения, выполняющегося в пользовательском режиме, запрашивает службу, предоставляемую кодом, который выполняется в режиме ядра.
read - чтение из файлового дескриптора.
open - открывающий и по возможности создающий файл или устройство
close - закрыть файловый дескриптор
access - проверка пользовательских привелегий для этого файла
mmap - служит для отображения предварительно открытого файла (например, с помощью системного вызоваа open()) в адресное пространство вычислительной системы
strace -c ls % time seconds usecs/call calls errors syscall ------ ----------- ----------- --------- --------- ---------------- 0.00 0.000000 0 4 read 0.00 0.000000 0 5 write 0.00 0.000000 0 6 open 0.00 0.000000 0 9 close 0.00 0.000000 0 7 fstat 0.00 0.000000 0 18 mmap 0.00 0.000000 0 10 mprotect 0.00 0.000000 0 2 munmap 0.00 0.000000 0 3 brk 0.00 0.000000 0 2 rt_sigaction 0.00 0.000000 0 1 rt_sigprocmask 0.00 0.000000 0 2 ioctl 0.00 0.000000 0 6 6 access 0.00 0.000000 0 1 execve 0.00 0.000000 0 2 getdents 0.00 0.000000 0 1 getrlimit 0.00 0.000000 0 1 arch_prctl 0.00 0.000000 0 1 1 futex 0.00 0.000000 0 1 set_tid_address 0.00 0.000000 0 1 openat 0.00 0.000000 0 1 set_robust_list ------ ----------- ----------- --------- --------- ---------------- 100.00 0.000000 84 7 total
Все сигналы можно глянуть через kill -l, они нужны для взаимодей ствия между процессами
root@swfuse:~# kill -l 1) SIGHUP 2) SIGINT 3) SIGQUIT 4) SIGILL 5) SIGTRAP 6) SIGABRT 7) SIGBUS 8) SIGFPE 9) SIGKILL 10) SIGUSR1 11) SIGSEGV 12) SIGUSR2 13) SIGPIPE 14) SIGALRM 15) SIGTERM 16) SIGSTKFLT 17) SIGCHLD 18) SIGCONT 19) SIGSTOP 20) SIGTSTP 21) SIGTTIN 22) SIGTTOU 23) SIGURG 24) SIGXCPU 25) SIGXFSZ 26) SIGVTALRM 27) SIGPROF 28) SIGWINCH 29) SIGIO 30) SIGPWR 31) SIGSYS 34) SIGRTMIN 35) SIGRTMIN+1 36) SIGRTMIN+2 37) SIGRTMIN+3 38) SIGRTMIN+4 39) SIGRTMIN+5 40) SIGRTMIN+6 41) SIGRTMIN+7 42) SIGRTMIN+8 43) SIGRTMIN+9 44) SIGRTMIN+10 45) SIGRTMIN+11 46) SIGRTMIN+12 47) SIGRTMIN+13 48) SIGRTMIN+14 49) SIGRTMIN+15 50) SIGRTMAX-14 51) SIGRTMAX-13 52) SIGRTMAX-12 53) SIGRTMAX-11 54) SIGRTMAX-10 55) SIGRTMAX-9 56) SIGRTMAX-8 57) SIGRTMAX-7 58) SIGRTMAX-6 59) SIGRTMAX-5 60) SIGRTMAX-4 61) SIGRTMAX-3 62) SIGRTMAX-2 63) SIGRTMAX-1 64) SIGRTMAX
-
Ответ
man 2 <syscall>
Но нужно будет предварительно поставить пакет
man-pages
sudo apt install manpages-dev manpages-posix-dev
-
Ответ
Команда kill отправляет сигнал процессу
Текущая load average на сервере - 900, 900, 900. Сервер работает с незначительной потерей производительности. Каким образом можно понять, является ли это нормальной ситуацией?
-
Ответ
Я бы начал с того, что бы понял а что вообще вызывает проблему, и что на сервере важное.
Если сайтики не открываются на работающем сервере все - проблема. Если проблема только с одним, то копать. А может быть все важные функции работают для работы сайтов или сервисов.
И допустим нужно писать данные или читать данные на что-то медленное. Система не тормозит, но из-за того, что процессы записи чтения на медленный девайс скопились - ЛА подросла. В этом случае будет высокая wa При этом все остальные процессы отрабатывают быстро
На параметр нагрузки LA влияет также и ожидание ввода-вывода (параметр wa в утилите top ) в дисков и задержка сети. Данные параметры могут не влиять на работу основных сервисов в системе, но учитываются при расчете общей нагрузки на систему.
-
Ответ
Процесс - это исполняемая программа. Когда программист пишет программу и выполняет ее, эта программа становится процессом. Он выполняет задачи в соответствии с инструкциями программы.
Процесс - это экземпляр выполняемой компьютерной программы. Поток - это компонент процесса, который является самой маленькой исполнительной единицей.
Здесь имя процесса (или задачи) известно как "Construct road".
Хорошо, как я могу построить дорогу, поэтому мне нужен какой-то ресурс для строительства, верно?
Ресурсы:
- Граница дороги (область)
- Технически мы можем назвать это виртуальным адресным пространством, оно имеет уникальный идентификатор процесса для идентификации работы.
- Доступ к ограниченной границе области. Контекст безопасности
- Также, вы можете сопоставить другие свойства процесса с приведенным выше примером (окружение, приоритет и т.д.)
- Жесткое или рабочее пространство
- Количество "оборудования или рабочей силы" основано на мышлении подрядчика; предположим, что он\she хочет закончить работу быстро, тогда он\she должен назначить больше людей на эту работу.
- Т.е. каждый работник может получить доступ к этой ограниченной территории (общее пограничное пространство).
- Для начала работы нужен хотя бы один человек.
- У каждого человека есть свой идентификатор
- Итак, можем ли мы назвать это нитью? Если да, то приведите другие свойства потока на этом примере (обработка исключений, контекст потока и т.д.).
Ключевая разница
- Процесс означает, что программа выполняется, а поток означает сегмент процесса.
- Процесс не является легковесным, тогда как потоки - легковесными.
- Процессу требуется больше времени для завершения, а потоку требуется меньше времени для завершения.
- Процесс требует больше времени для создания, тогда как Thread требует меньше времени на создание.
- Процессу, вероятно, требуется больше времени для переключения контекста, тогда как потокам требуется меньше времени для переключения контекста.
- Процесс в основном изолирован, тогда как потоки разделяют память.
- Процесс не обменивается данными, а потоки обмениваются данными друг с другом.
-
Ответ
Директория
proc/PID
Информация о процессах хранится в директориях /proc/N, где N — числовой идентификатор процесса. В этой директории содержатся различные псевдо-файлы, которые содержат информацию о самом процессе и связанном с ним окружении.
/proc/N/cmdline — Содержимое командной строки, которой был запущен процесс.
/proc/N/environ — Описание окружения, в котором работает процесс. Оно может быть полезно для просмотра содержимого окружения, если вам надо, например, посмотреть, была ли установлена переменная окружения перед запуском программы.
/proc/N/exe — Символическая ссылка на выполнимый файл запущенной программы.
/proc/N/limits — Лимиты на использование системных ресурсов, актуальные для работающего процесса.
/proc/N/mounts — Список смонтированных ресурсов, которые доступны процессу
/proc/N/status — Статус работающей программы. Он включает в себя такую информацию как идентификатор родительского процесса, статус самого процесса, его название, его идентификатор, идентификатор пользователя и группы, группы, в которые входит владелец процесса, сколько потоков использует процесс, сколько памяти он использует и так далее.
В этой же директории содержится несколько псевдо-директорий:
/proc/N/cwd — Текущая директория для процесса. Представлена символической ссылкой на директорию. Если рабочая директория для процесса изменится, изменится и ссылка.
/proc/N/fd — Файловые дескрипторы, которые используются процессом. Для программы bash, например, там по умолчанию будут дескрипторы 0, 1, 2 и 255, указывающие на виртуальный терминал, в котором запущен процесс, например, /dev/pts/6.
/proc/N/fdinfo — Информация о файловых дескрипторах. Каждый файл в этой директории содержит поля pos (позиция курсора), flags (флаги, с которыми этот дескриптор был открыт) и mnt_id (идентификатор точки монтирования из списка, содержащегося в файле /proc/N/mountinfo)
/proc/N/root — Символическая ссылка на директорию, которая для данного процесса является корневой
/proc/N/net — Сетевые системные ресурсы и их параметры, действующие для конкретного процесса.
top - 10:44:36 up 91 days, 19:29, 7 users, load average: 0,00, 0,02, 0,05
Tasks: 156 total, 1 running, 155 sleeping, 0 stopped, 0 zombie
%Cpu(s): 0,0 us, 1,5 sy, 0,0 ni, 96,9 id, 0,0 wa, 0,0 hi, 0,0 si, 1,5 st
KiB Mem : 12137392 total, 6227844 free, 1117728 used, 4791820 buff/cache
KiB Swap: 0 total, 0 free, 0 used. 10090148 avail Mem
-
Ответ
top - утилита
10:44:36 — время системы
up - сколько система работает с момента последнего запуска
7 user - количество авторизованных юзеров в системе
load average: 0.00, 0.02, 0.05 - параметр средней нагрузки на систему за период времени 1 минута, 5 минут, 15 минут
156 total - всего процессов в системе
1 running - количество процессов в работе
155 sleeping - ожидание процесса или сигнала
0 stopped - количество приостановленных процессов сигналом STOP или выполнение трассировки
0 zombie - количество зомби-процессов, которые завершили своё выполнение, но присутствующие в системе, чтобы дать родительскому процессу считать свой код завершения.
KiB Mem - количество оперативной памяти в кибибайтах (кратно 1024): 7106404 total -- всего доступно оперативной памяти в системе, 306972 free -- свободно оперативной памяти для использования, 3127144 used -- использовано оперативной памяти, 3672288 buff/cache -- буферизовано/закешировано оперативной памяти.
KiB Swap - количество swap-памяти в кибибайтах (кратно 1024), которые выделено на диске: 8191996 total - всего выделено swap-памяти, 8191996 free - свободно swap-памяти 0 used - использовано swap-памяти, 3270520 avail Mem - доступно для использования swap-памяти.
-
Ответ
R - процесс исполнется, или ждет своей очереди на исполнение S - прерываемый сон - процесс ожидает определенного события или сигнала. Нужен, когда процесс нельзя завершить (чтение из файла), ядро переводит на ожидание. Ожидать данные от сетевого соединения D - непрерывное ожидание, сон. Ждем сигнал от аппаратной части. T - остановка процесса, посылаем сигнал STOP. В этом состоянии процессу запрещено выполняться Чтобы вернуть к жизни нужно послать CONT При завершении процесса он становится зомби Z(zombie) - зомби это процесс, который закончил выполнение, но не передал родительскому процессу свой код возвращения. Процесс в этом состоянии игнорирует kill. Родитель получает код, и освобождает структуру ядра, которое относится к процессу Бывает еще когда родительский умирает раньше дочернего. Процесс становится сиротой.
-
Ответ
Z(zombie) - зомби это процесс, который закончил выполнение, но не передал родительскому процессу свой код возвращения. Процесс в этом состоянии игнорирует kill.
#include «stdlib.h> #include <sys/types.h> #include <unistd.h> int main() { pid_t child_pid; /* Создание дочернего процесса. */ child_pid = fork(); if (child_pid > 0) { /* Это родительский процесс — делаем минутную паузу. */ sleep(60); } else { /* Это дочерний процесс — немедленно завершаем работу. */ exit(0); } return 0; }
-
Интересная тонкость
Всякий процесс при завершении и до считывания статуса завершения предком пребывает в состоянии зомби, это совершенно нормально и короткоживущие зомби-процессы не представляют проблемы в системе. При этом ряд ошибок программирования может приводить к возникновению и накоплению в системе необрабатываемых процессов-зомби (т. е. уже завершившихся процессов, родитель которых не считывает их статус).
-
Ответ
Зомби не занимают памяти (как процессы-сироты ), но блокируют записи в таблице процессов, размер которой ограничен для каждого пользователя и системы в целом.
При достижении лимита записей все процессы пользователя, от имени которого выполняется создающий зомби родительский процесс, не будут способны создавать новые дочерние процессы. Кроме этого, пользователь, от имени которого выполняется родительский процесс, не сможет зайти на консоль (локальную или удалённую) или выполнить какие-либо команды на уже открытой консоли (потому что для этого командный интерпретатор sh должен создать новый процесс)
Иногда, если родительский процесс выполняется от имени суперпользователя, для освобождения записей (перезапуска процесса) может потребоваться перезагрузка (причём зачастую — только аппаратным рестартом). Некоторые операционные системы (например, Sun Solaris ) при возникновении такой ситуации аварийно завершают часть выполняющихся процессов, восстанавливая работоспособность системы.
-
Ответ
В POSIX-системах SIGCHLD — сигнал, посылаемый при изменении статуса дочернего процесса (завершён, приостановлен или возобновлен).
Допустим дочерний процесс завершил выполнение и все
-
Ответ
Файловый дескриптор
- неотрицательное целое число, которое используется в интерфейсе между пространством пользователя и пространством ядра (kernel) для идентификации ресурсов файла / сокета. Когда создаётся новый поток ввода-вывода, ядро возвращает процессу, создавшему поток ввода-вывода, его файловый дескриптор.
-
Ответ
Это уведомление процесса о наступившем событии. Также это способ взаимодйествия между процссами.
-
Ответ
SIGTERM завершает программу. Это как бы мягкое уничтожение. И по умолчанию при вводе команды kill - используется именно он.SIGKILL - немедленное прекращение выполнение процесса. Процесс будет завершен с потоками. Используется как последнее средство. (kill)
Сигнал SIGKILL передается процессу, чтобы заставить его немедленно завершиться. В отличие от SIGTERM и SIGINT, этот сигнал не может быть перехвачен или проигнорирован, и процесс получения не может выполнить очистку после получения этого сигнала.
Он нужен в критических ситуациях, когда повис процесс.
Проблема использования sigkill. SIGKILL убивает дочерние процессы.И в этом случае может появиться процесс зомби. Уничтоженный процесс не имеет возможности сообщить родителю о том, что у него был сигнал уничтожения. (kill9)
На некоторые сигналы можно
-
Ответ
SIGINT (от англ. signal и interrupt — прервать) — сигнал, применяемый в POSIX-системах для остановки процесса пользователем с терминала.
-
Ответ
Часто говорят что это средняя загрузка процессора или нагрузка системы, или какие-то циферки.
Узнать значение la можно разными способами. Например, uptime.
Чем меньше значение, тем лучше. Большое значение - возможно проблема есть в системе.
Цифры обозначают нагрузку за определенный период времени. 1, 5 и 15 минут.
А на низкое внимание не обращается.
Вообще эта цифра показывает количество процессов в статусе d r
И в зависимости от ситуации это может указывать на проблему Допустим у нас сервер есть где постоянно диски насилуются. Там всегда LA будет высокая скорее всего. Просто потому что есть процессы в статусе d.
-
Ответ
Да, можно, за это отвечает параметр hidepid
boomer : ~ [0] # cat /proc/mounts | grep proc proc /proc proc rw,nosuid,nodev,noexec,relatime,hidepid=2 0 0
-
Ответ
Физическая память (или «ОЗУ», «RAM», «оперативка») — это энергозависимая память, установленная в компьютере. Для её работы требуется непрерывный поток электричества. Перебои с электропитанием или внезапное выключение компьютера могут привести к стиранию хранящихся в ней данных. Кроме того, эта память является линейно адресуемой. Другими словами, значения адресов памяти увеличиваются линейным образом.
Запуская и исполняя программы, процессор напрямую обращается к физической памяти. Обычно программы хранятся на жестком диске. Время доступа процессора к диску значительно превышает аналогичное время доступа к физической (оперативной) памяти. Чтобы процессор мог выполнять программы быстрее, они сначала помещаются в физическую (оперативную) память. После завершения своей работы, они возвращаются обратно на жесткий диск. Освобожденная таким образом память может быть выделена новой программе. При выполнении данные программы называются процессами.
-
Ответ
Виртуальная память (или «логическая память») — это метод управления памятью, осуществляемый операционной системой, который позволяет программам задействовать значительно больше памяти, чем фактически установлено в компьютере. Например, если объем физической памяти компьютера составляет 4 ГБ, а виртуальной 16 ГБ, то программе может быть доступен объем виртуальной памяти вплоть до 16 ГБ.
Основное различие между физической и виртуальной памятью заключается в том, что физическая память относится к оперативной памяти компьютера, подключенной непосредственно к его материнской плате. Именно в ней находятся выполняемые в данный момент программы. А виртуальная память — это метод управления, расширяющий при помощи жесткого диска объем физической памяти, благодаря чему у пользователей появляется возможность запускать программы, требование к памяти которых превышает объем установленной в компьютере физической памяти.
- Ответ (спорный) Hop не всегда корректно показывает сколько памяти приложение потребляет по факту. Пункт VIRT там это скорее параметр, который указывает сколько приложение запросило как бы запросило (про запас), а не сколько использует по факту. И в этом плане на этот параметр лучше не полагаться. Для анализа используемой памяти лучше использовать скрипт ps_mem.py. Он показывает сколько памяти съедается по факту.
-
Ответ
free -m
-
Ответ
Когда на вашем Linux-компьютере заканчивается память, ядро вызывает Убийцу нехватки памяти (OOM) для освобождения памяти. Это часто встречается на серверах, на которых запущен ряд процессов с интенсивным использованием памяти.
Оом киллер освобождает память для спасения системы, но чтобы процессы освобождаемые были наименее важны для системы.
У нас не только физическая и виртуальная память может закончиться. А если процесс потребляет страницу определенного размера, то могут быть не очень хорошие вещи.
Ядро Linux дает оценку каждому запущенному процессу, называемому oom_score, которая показывает, насколько вероятно, что он будет остановлен в случае нехватки доступной памяти.
Оценка пропорциональна количеству памяти, используемой процессом. Оценка - 10% процентов памяти, используемой процессом. Таким образом, максимальная оценка составляет 100% x 10 = 1000.
https://github.com/hightemp/docLinux/blob/master/articles/Linux OOM killer - выживание.md
-
Ответ
Трубы(пайпы '|') — связь между двумя взаимосвязанными процессами. Механизм является полудуплексным, что означает, что первый процесс связан со вторым процессом. Для достижения полного дуплекса, т. Е. Для взаимодействия второго процесса с первым процессом требуется другой канал.
FIFO — Связь между двумя не связанными процессами. FIFO — это полный дуплекс, что означает, что первый процесс может взаимодействовать со вторым процессом и наоборот одновременно.
Очереди сообщений — связь между двумя или более процессами с полной дуплексной пропускной способностью. Процессы будут связываться друг с другом, отправляя сообщение и извлекая его из очереди. Полученное сообщение больше не доступно в очереди.
Совместно используемая память. Связь между двумя или более процессами достигается за счет совместного использования памяти всеми процессами. Совместно используемая память должна быть защищена друг от друга путем синхронизации доступа ко всем процессам.
Семафоры — семафоры предназначены для синхронизации доступа к нескольким процессам. Когда один процесс хочет получить доступ к памяти (для чтения или записи), он должен быть заблокирован (или защищен) и освобожден при удалении доступа. Это должно быть повторено всеми процессами для защиты данных.
Сигналы — Сигнал — это механизм связи между несколькими процессами посредством сигнализации. Это означает, что исходный процесс отправит сигнал (распознанный по номеру), а целевой процесс обработает его соответствующим образом.
Примечание. Почти все программы в этом руководстве основаны на системных вызовах в операционной системе Linux (выполняется в Ubuntu).
Ответ будет 5. Потому что каждая команда конвейера исполняется в отдельной подоболочке (SubShell)
nparamonov@peka:~$ a=5; true | { true && a=10; echo $a; }
10
nparamonov@peka:~$ echo $a
5
-
Ответ
Это виртуализированный эмулятор, который запускает программы и ОС, созданные для одной машины на другой машине в процессе эмуляции машины. Он может достичь очень хорошей производительности с помощью динамического перевода.
QEMU (Quick Emulator) – эмулятор различных устройств, который позволяет запускать операционные системы, предназначенные под одну архитектуру, на другой (например, ARM –> x86). Кроме процессора, QEMU эмулирует различные периферийные устройства: сетевые карты, HDD, видео карты, PCI, USB и пр.
-
Ответ
KVM (Kernel-based Virtual Machine) – гипервизор (VMM – Virtual Machine Manager), работающий в виде модуля на ОС Linux. Гипервизор нужен для того, чтобы запускать некий софт в несуществующей (виртуальной) среде и при этом, скрывать от этого софта реальное физическое железо, на котором этот софт работает. Гипервизор работает в роли «прокладки» между физическим железом (хостом) и виртуальной ОС (гостем).
-
Ответ
KVM предоставляет доступ гостям к Ring 0 и использует QEMU для эмуляции I/O (процессор, диски, сеть, видео, PCI, USB, серийные порты и т.д., которые «видят» и с которыми работают гости).
Бинарный программный код на процессорах работает не просто так, а располагается на разных уровнях (кольцах / Protection rings) с разными уровнями доступа к данным, от самого привилегированного (Ring 0), до самого ограниченного, зарегулированного и «с закрученными гайками» (Ring 3).
-
Ответ
iowait это показатель, показывающий процентное соотношение времени процессора, которое он потратил на ожидание ввода-вывода.
Высокий показатель может сказать о том, что система ограничена возможностями дисковой памяти. Выполняется много операций ввода-вывода. Это замедляет систему. Конкретно это обычно означает что блочные устройства работают медленно или они переполнены.
Замеряется в количестве потоков, которые ждут работы.
Команды: iostat
sysstat
Что такое блочные устройства? Какие элементарные операции можно с ними производить?
-
Ответ
Блочное устройство представляет собой уровень абстракции, описывающий любое устройство хранения информации, которое может быть разбито на блоки определенного размера; доступ к каждому блоку осуществляется независимо от доступа к другим блокам. Такой доступ часто называют произвольным доступом. Иными словами блочные устройства нужны тогда, когда используется передача большого объема данных. Сюда входят RAM-диски, компакт диски, накопители на магнитах
Доступ также осуществляется через спец файлы интерфейсы в
dev
.На блочных устройствах как правило файловые системы.
Блочные устройства представлены часто как множество блоков. Один блок кратен степени двух и равен килобайту данных.
Это позволяет линуксу читать и писать как в символьные устройства, так и в блочные.
Разница в том, что передается блок данных, а не байт.
Для пользователя это незаметно.
Используется для монтирования файловых систем.
Через
lsblk
можно их посмотретьДанные передаются блоками. Как правило, кратный размер 256 байт
Можно записывать считывать, разделы создавать.
Блочные устройства не работают напрямую с системными вызовами. И в случае блочных устройств их взаимосвязь обеспечивается системой управления файлами и подсистемой плочного устройства. Эти подсистемы нужны чтобы подготовить ресурсы (буферы) драйвера устройства. Сохранять недавно прочитанные устйроства в кэш буфере, упорядочивание операций чтения и записи для повышения производительности.
-
Ответ Один из типов устройств. Используется для медленных устройств, у которых происходит обмен небольшим объемом данных. И доступ к ним не требует частых поисковых запросов. Примеры таких устройств: мышь, клавиатура, последовательные порты. В этом случае данные выполняются последовательно байт за байтом.
Для этих устройств системные вызовы идут напрямую к драйверам устройств.
-
Ответ
Согласно выводу
crw-rw-rw- 1 root root 1, 3 Feb 23 1999 null crw------- 1 root root 10, 1 Feb 23 1999 psaux crw------- 1 rubini tty 4, 1 Aug 16 22:22 tty1 crw-rw-rw- 1 root dialout 4, 64 Jun 30 11:19 ttyS0 crw-rw-rw- 1 root dialout 4, 65 Aug 16 00:00 ttyS1 crw------- 1 root sys 7, 1 Feb 23 1999 vcs1 crw------- 1 root sys 7, 129 Feb 23 1999 vcsa1 crw-rw-rw- 1 root root 1, 5 Feb 23 1999 zero
Цифры 1, 10, 4 и 7 - старшие, мажорные номера.
Цифры 1, 3, 5, 64, 65 и 129 - минорные номера
Старший номер идентифицирует драйвер, который связан с устройством.
null
иzero
управляются драйвером 1.tty1
,ttyS0
,ttyS1
- управляются драйвером четыре. Это виртуальные консоли и терминалы.Как правило один старший номер - один драйвер
Младший же номер используется ядром что бы определить о каком устройстве идет речь. И можно получить ссылку на устройство через ядро. Само ядро ничего про них не знает, знают только то, что здесь ссылаются на устройства, которыми драйвер управляют.
-
Ответ
Файловая система обеспечивает способ разделения данных на диске на отдельные части, которые являются файлами. Он также предоставляет способ хранения данных об этих файлах – например, их имён, разрешений и других атрибутов.
Операционная система должна понимать файловую систему, чтобы она могла отображать её содержимое, открывать файлы и сохранять в них файлы. Если ваша операционная система не понимает файловую систему, Вы можете установить драйвер файловой системы, который обеспечивает поддержку такой файловой системы.
Файловую систему компьютерного диска можно сравнить с системой организации хранения документов – биты данных на компьютере называются «файлами», и они организованы в «файловой системе», как бумажные файлы могут быть организованы в файловые шкафы. Существуют разные способы организации этих файлов и хранения данных – это есть «файловые системы».
https://windows-school.ru/blog/kompjuteru_nuzhna_fajlovaja_sistema/2018-08-03-155
- Ответ
Что такое inodes айноды
-
Ответ
Inode (индексный дескриптор) - структура данных, в которой хранятся метаданные файла и перечислены блоки с данными файла.
Хранит всю информацию, кроме имени файла и данных. Каждый файл в данном каталоге является записью с именем файла и номером индекса.
Вся остальная информация о файле извлекается из таблицы индексов путем ссылки на номер индекса. Номера inodes уникальны на уровне раздела. Каждый раздел как собственная таблица индексов. Если у вас закончились inode, вы не можете создавать новые файлы, даже если у вас есть свободное место на данном разделе.
Inodes хранит метаданные о файле, к которому он относится. Эти метаданные содержат всю информацию об указанном файле.
- Размер.
- Разрешение.
- Владелец/группа.
- Расположение жесткого диска.
- Дата/время.
- Любая другая необходимая информация.
-
Ответ
Будет зависеть от файловой системы. Например, в ext2, ext3 хранится перед блоками данных. Это атрибут не диска, а файловой системы.
иноды хранятся в таблицах инодов, и в каждой группе блоков в разделе есть таблица инодов.
Может быть каталог инодов и имен, которые с ним связаны. Но это также будет зависеть от файловой системы. В fat32 их нет
-
Краткий ответ
Имена inodes (имена файлов, каталогов, устройств и т. Д.) Хранятся на диске в каталогах. В каталоге хранятся только имена и соответствующие номера inode; Фактическое дисковое пространство для именованных данных хранится в пронумерованном индексном узле, а не в каталоге.
Айнода просто указывает на файл и каталог
-
Ответ
Не будет возможности создания файла
Зависит от размера блока, на который жесткий диск бьется. И от размера жесткого диска. И также могут разные файловые системы так работать.
-
Ответ
XFS
-
Ответ
- Inodes не содержат имён файлов, только другие метаданные файла.
- Каталоги Unix представляют собой списки ассоциативных структур, каждая из которых содержит одно имя файла и один номер индекса.
- Драйвер файловой системы должен найти каталог, ищущий определенное имя файла, а затем преобразовать имя файла в правильный соответствующий номер индекса.
Таким образом имя файла/директории хранится в информационной структуре каталогов.
Каким образом осуществляется монтирование ФС? Как можно посмотреть список примонтированных ФС? (2 - 3
способа)**
-
Ответ
mkfs -t ext3 /dev/hda8
mount
- показать все файловые системыmount -t ext4
- покажет ext4 файловые системыЕсли нужно примонтировать usb
Создаем файлик и монтируем
sudo mkdir -p /media/usb sudo mount /dev/sdd1 /media/usb
http://system-administrators.info/?p=911
df -h
du -h
fdisk -l
-
Ответ
«Псевдо» означает ложь, притворяться. Таким образом, «псевдофайловая система» означает файловую систему, которая не имеет фактических файлов - скорее, она имеет виртуальные записи, которые сама файловая система создает на месте.
Можно сказать это интерфейс ядра linux.
Например,
/proc
во многих ОС - это procfs, который динамически генерирует каталоги для каждого процесса. Точно так же/sys
в Linux генерирует файлы и каталоги для представления аппаратных схем. Есть FUSE на основе псевдо-файловая система для многих вещей./dev
может быть реальной файловой системой (просто подкаталогом/
) или виртуальной псевдофайловой системой (например, devfs), или средней точкой, такой как Linux devtmpfs (которая является полной файловой системой в памяти, но все же создает узлы устройства из нигде).Основное предназначение современных VFS — организация единого интерфейса доступа пользователя к различным файловым системам, драйверы которых загружены в память компьютера. Для реализации этой цели от ядра операционной системы требуется создание единого программного интерфейса внутренних вызовов ядра
Какие проблемы могут возникать с файловой системой и жёстким диском? Можно ли восстановить ФС при незначительном повреждении её структуры? Как это сделать?
-
Ответ
Если автоматическая проверка при загрузке не может восстановить согласованность файловой системы, обычно происходит переход в однопользовательскую командную оболочку и выводится сообщение с указаниями по ручному запуску fsck. В системе ext2, которая не журналируется, вам может быть представлена серия вопросов для подтверждения операций по восстановлению файловой системы. Как правило, рекомендуется следовать предложениям fsck по восстановлению системы, выбирая y (для подтверждения операции). Когда система перезагрузится, проверьте, не пропала ли какая-либо информация или файлы.
Если вы заподозрили порчу данных или хотите запустить проверку вручную, большинство программ требуют сначала размонтировать файловую систему. Поскольку размонтировать корневую файловую систему работающей системы невозможно, максимум, что можно сделать – перейти в однопользовательский режим (используя telinit 1), а затем перемонтировать корневую файловую систему в режиме «только чтение»; после этого можно провести проверку согласованности.Наилучший способ проверки файловых систем – загрузиться в резервную систему с CD-диска или USB- накопителя и провести проверку ваших файловых систем в размонтированном виде.
«Продвинутые» инструменты
Также существуют более функциональные средства для проверки и восстановления файловых систем. Правила использования можно найти в документации man, а практические рекомендации – в Linux Documentation Project (см. Ресурсы). Почти все эти команды требуют, чтобы файловая система была размонтирована, хотя некоторые функции могут использоваться в файловых системах, смонтированных в режиме «только чтение». Некоторые из этих команд описаны далее.
Прежде чем предпринимать какие-либо исправления, обязательно создавайте резервную копию файловой системы.
Инструменты для файловых систем ext2 и ext3
tune2fsНастраивает параметры файловых систем ext2 и ext3. Используется для добавления журнала к системе ext2, делая, таким образом, из нее ext3, а также выводит или устанавливает максимальное число монтирований, после которого необходима проверка. вы также можете задать метку и назначить или запретить выполнение дополнительных опций.dumpe2fsВыводит информацию о дескрипторах суперблоков и групп блоков в файловых системах ext2 и ext3.debugfsКоманда для интерактивной отладки файловой системы. Используйте ее для проверки или изменения состояния файловых систем ext2 или ext3.
Инструменты для файловых систем ReiserFS
reiserfstuneВыводит и настраивает параметры файловой системы ReiserFS.debugreiserfsВыполняет функции, аналогичные dumple2fs и debugfs, для файловой системы ReiserFS.
Инструменты для файловой системы XFS
xfs_infoВыводит информацию о системе XFS.xfs_growfsРасширяет файловую систему XFS (если имеется дополнительный раздел).xfs_adminИзменяет параметры файловой системы XFS.xfs_repairВосстанавливает файловую систему XFS, когда проверок при монтировании установке недостаточно для восстановления системы.xfs_dbПроверяет или отлаживает файловую систему XFS.
XFS поддерживает очень большие разделы и файлы. Также она хорошо работает при многопоточной нагрузке параллельной записи и чтения. Не очень подходит для однопоточных нагрузок с большим количеством метаданных. Например если один поток создает и удаляет большое количество мелких файлов.xfs поддерживает динамические inod-ы. В xfs они динамические, и их можно добавить. Ограничение системного раздела - 500TB В xfs можно потерять все данные, если сбилось что-то в момент записи на диск. Да и развернуть бэкап может не получиться, xfs разный может быть на серверах.
ext4 поддерживает разделы до 50TB. Позволяет уменьшить созданный раздел. Лучше себя проявляет на медленных дисках с точки зрения пропускной способности.
Итог: Если много потоков последовательной записи или чтения с большим потреблением cpu в виде мелких файлов, и много метаданных то лучше ext4.
Если у нас параллельная нагрузка в несколько потоков с большими файлами - лучше xfs.
https://access.redhat.com/articles/3129891
Как определить, на каком физическом жёстком диске находится раздел с файловой системой? Как можно идентифицировать этот носитель без выключения сервера?
- Ответ неизвестен
Какую файловую систему Вы бы выбрали для работы с большим количеством файлов?
- Ответ
-
Ответ
lsof | grep /media/whatever
fuser -mv /path/to/mountpoint
-
Ответ
При включении главный диск смонтирован в корень. Загрузочный в boot.
Дополнительные диски в
mnt/*
Информация об этих монтированиях хранится в файле /etc/fstab
Система автоматом монтирует диски на осноании тех данных, которые берет их этого файла.
То есть монтирование во время загрузки
/etc/mtab
– это файл, который содержит список уже смонтированных файловых систем.Поэтому, когда вы запускаете команду «df», она обращается к этому файлу для генерации вывода.
Файл mtab содержит софт ссылку на файл /proc/self/mounts.
mdadm - скорее всего для рейдов
-
Ответ определения
Хардлинк - жесткая ссылка. По своей сути является тем же файлом на который ссылается. Также счетчик в айнодах есть. Цифра 1 это оно. Счетчик имен одного и того же файла.
ls -lih | grep file 475949 -rw-r--r-- 1 root setevoy 0B Aug 13 11:51 file1 475950 -rw-r--r-- 1 root setevoy 0B Aug 13 11:51 file2 475951 -rw-r--r-- 1 root setevoy 0B Aug 13 11:51 file3
Симлинк - магкая ссылка. При ее создании создается новый объект на существующий файл файловой системы.
Отличить можно по наличию буквы l
ls -lih | grep sym 475948 lrwxr-xr-x 1 root setevoy 5B Aug 13 12:02 symlink1 -> file1
-
Ключевые отличия
hardlink
не может указывать на файл в другой файловой системе (так какinode
может принадлежать только одной ФС), аsymlink
– может.- при редактировании файла-ссылки в случае с
hardlink
ом – изменятся оба файла, так как это один и тот же объект, а в случае сsymlink
а – можно изменять его имя, атрибуты, направить его на другой файл и при этом оригинальный файл не будет затронут (но учтите, что если вы откроете файл симлинка для редактирования – то измените оригинальный файл, т.к. по сути вы откроете для редактирования именно его) - жёсткая ссылка не может указывать на на каталог
- При удалении
hardlink
-а – файл будет существовать до тех пор, пока есть хотя бы 1hardlink
на него, но может “менять каталог размещения”, если был удалён “исходный” файл, но остался файл-hardlink
в другом месте. При удалении же файла, на который указываетsymlink
– файл-ссылка просто станет нерабочим.
отличаются?
-
Ответ
В работе с дисками есть две проблемы
- Низкая скорость чтения\записи
- Выход дисков из строя и потеря данных
И это всё решается с помощью технологии RAID
Избыточный массив независимых дисков.
Существуют следующие уровни спецификации RAID: 1,2,3,4,5,6,0. Кроме того, существуют комбинации: 01,10,50,05,60,06. Существуют аппаратные и программные RAID-массивы.
- Программные массивы создаются уже после установки Операционной Системы средствами программных продуктов и утилит, что и является главным недостатком таких дисковых массивов.
- Аппаратные RAID’ы создают дисковый массив до установки Операционной системы и от неё не зависят.
RAID 0 - чередование
RAID 1 - зеркалирование
RAID 5 - чередование с четностью
RAID 6 - чередование с двойной четностью
RAID 10 - совмещение зеркалирования и чередования
Уровень RAID 0 - Чередование
В системе RAID 0 данные разделяются на блоки, которые записываются на все диски в массиве. При одновременном использовании нескольких дисков (как минимум 2) это обеспечивает превосходную производительность ввода-вывода. Эту производительность можно повысить, используя несколько контроллеров, в идеале один контроллер на диск.
Преимущества
- RAID 0 обеспечивает высокую производительность как в операциях чтения, так и записи. Нет никаких накладных расходов, вызванных контролем четности.
- Используется весь объем памяти, накладных расходов нет.
- Технология проста в реализации.
Недостатки
- RAID 0 не отказоустойчив.
- В случае сбоя одного диска все данные в массиве RAID 0 будут потеряны.
- Он не должен использоваться для критически важных систем.
Лучшее применение:
RAID 0 идеально подходит для некритического хранения данных, которые должны считываться/записываться с высокой скоростью, например, на ретушь изображений или на станции видеомонтажа.
Если вы хотите использовать RAID 0 исключительно для объединения емкости хранилищ в одном томе, рассмотрите возможность подключения одного диска в путь к папке другого диска. Это поддерживается в Linux, OS X, а также Windows и имеет то преимущество, что сбой одного диска не влияет на данные второго диска или SSD-диска.
Уровень RAID 1 - Зеркальное отображение
Данные хранятся дважды, записывая их как на диск данных (или набор дисков с данными), так и на зеркальный диск (или набор дисков). В случае сбоя диска контроллер использует диск данных или зеркальный диск для восстановления данных и продолжает работу. Вам нужно как минимум 2 диска для массива RAID 1.
Преимущества
- RAID 1 предлагает отличную скорость чтения и скорость записи, сопоставимую с одиночным диском.
- В случае сбоя диска данные не нужно перестраивать, их просто нужно скопировать на новый диск.
- RAID 1 - очень простая технология.
Недостатки
- Основным недостатком является то, что эффективная емкость хранилища составляет только половину от общей емкости диска, поскольку все данные записываются дважды.
- Программные решения RAID 1 не всегда допускают горячую замену неисправного диска. Это означает, что неисправный диск можно заменить только после выключения компьютера, к которому он подключен.
- Для серверов, которые используются одновременно многими людьми, это может быть неприемлемо. Такие системы обычно используют аппаратные контроллеры, которые поддерживают горячую замену.
Идеальное использование
RAID-1 идеально подходит для критически важных хранилищ, например, для учетных систем. Он также подходит для небольших серверов, в которых будут использоваться только два диска с данными.
RAID уровень 5
RAID 5 является наиболее распространенным безопасным уровнем RAID. Требуется как минимум 3 диска, но может работать до 16. Блоки данных распределяются по дискам, и на одном диске записывается контрольная сумма четности всех данных блока. Данные о четности не записываются на фиксированный диск, они распространяются на все диски, как показано на рисунке ниже. Используя данные контроля четности, компьютер может пересчитать данные одного из других блоков данных, если эти данные больше не будут доступны. Это означает, что массив RAID 5 может противостоять отказу одного диска без потери данных или доступа к ним. Хотя RAID 5 может быть реализован программно, рекомендуется аппаратный контроллер. Часто дополнительная кеш-память используется на этих контроллерах для улучшения производительности записи.
Преимущества
- Транзакции чтения данных очень быстрые, в то время как транзакции записи данных несколько медленнее (из-за четности, которая должна быть рассчитана).
- В случае сбоя диска у вас по-прежнему есть доступ ко всем данным, даже если неисправный диск заменяется, а контроллер хранилища восстанавливает данные на новом диске.
Недостатки
- Отказы дисков влияют на пропускную способность, хотя это все еще допустимо.
- Это сложная технология. Если один из дисков в массиве, использующий диски 4 ТБ, выходит из строя и заменяется, восстановление данных (время восстановления) может занять день или более, в зависимости от нагрузки на массив и скорости контроллера. Если другой диск выйдет из строя в течение этого времени, данные будут потеряны навсегда.
Идеальное использование
RAID 5 — это хорошая универсальная система, которая сочетает в себе эффективное хранилище с превосходной безопасностью и достойной производительностью. Он идеально подходит для файловых серверов и серверов приложений с ограниченным количеством дисков с данными.
Уровень RAID 6 - Чередование с двойной четностью
RAID 6 похож на RAID 5, но данные о четности записываются на два диска. Это означает, что для него требуется как минимум 4 диска и он может выдержать 2 диска, умирающих одновременно. Вероятность поломки двух дисков в один и тот же момент, конечно, очень мала. Тем не менее, если диск в системах RAID 5 умирает и заменяется новым, для восстановления замененного диска требуются часы или даже больше дня. Если в это время умирает другой диск, вы все равно теряете все свои данные. При использовании RAID 6 массив RAID переживет даже этот второй сбой.
Преимущества
- Как и в RAID 5, операции чтения данных выполняются очень быстро.
- Если два диска выйдут из строя, у вас все равно будет доступ ко всем данным, даже если вышедшие из строя диски заменяются. Таким образом, RAID 6 более безопасен, чем RAID 5.
Недостатки
- Операции записи данных выполняются медленнее RAID 5 из-за дополнительных данных о четности, которые необходимо рассчитать. Производительность записи теоретичски может быть на 20% ниже.
- Отказы дисков влияют на пропускную способность, хотя это все еще допустимо.
- Это сложная технология. Восстановление массива, в котором вышел из строя один диск, может занять много времени.
Идеальное использование
RAID 6 — это хорошая универсальная система, которая сочетает в себе эффективное хранилище с превосходной безопасностью и достойной производительностью. Это предпочтительнее, чем RAID 5 на файловых серверах и серверах приложений, которые используют много больших дисков для хранения данных.
RAID уровень 10 - объединение RAID 1 и RAID 0
Можно объединить преимущества (и недостатки) RAID 0 и RAID 1 в одной системе. Это вложенная или гибридная конфигурация RAID. Он обеспечивает безопасность путем зеркального отображения всех данных на вторичных дисках, в то же время используя распределение по каждому набору дисков для ускорения передачи данных.
Преимущества
Если что-то идет не так с одним из дисков в конфигурации RAID 10, время восстановления очень быстрое, поскольку все, что нужно, - это скопировать все данные с выжившего зеркала на новый диск. Это может занять всего 30 минут для дисков емкостью 1 ТБ.
Недостатки
Половина емкости хранения уходит на зеркалирование, поэтому по сравнению с большими массивами RAID 5 или RAID 6 это дорогой способ обеспечения избыточности.
Как насчет уровней RAID 2, 3, 4 и 7?
Эти уровни существуют, но они не являются общими (RAID 3 по сути похож на RAID 5, но данные четности всегда записываются на один и тот же диск). В этой статье описывается лишь общая классификация RAID-систем, и отображает общие сведения о технологии объединения накопителей.
RAID не заменит резервную копию!
Все уровни RAID, кроме RAID 0, обеспечивают защиту от сбоя одного диска. Система RAID 6 продолжит работу, даже при выходе из строя одновременно 2 дисков. Для полной безопасности вам все равно необходимо выполнить резервное копирование данных из системы RAID.
- Эта резервная копия пригодится, если все диски выйдут из строя одновременно из-за скачка мощности.
- Это защита от кражи системы хранения.
- Резервные копии могут храниться вне серверной комнаты или ЦОД, в другом месте. Это может пригодиться в случае чрезвычайного происшествия, масштабного системного сбоя, пожара и т.д.
- Наиболее важной причиной резервного копирования данных нескольких поколений является ошибка пользователя. Если кто-то случайно удаляет некоторые важные данные, и это остается незамеченным в течение нескольких часов, дней или недель, хороший набор резервных копий гарантирует, что вы все равно сможете сохранить эти файлы.
-
Ответ
менеджер, позволяющий управлять логическими томами в системах Linux. Сами логические тома можно собрать из нескольких дисков или разделов дисков. LVM расшифровывается как Logical Volume Manager или по-русски — менеджер логических томов.
LVM или Logical Volume Manager - это еще один программный уровень абстракции над физическими разделами жесткого диска, который позволяет создавать логические тома для хранения данных без непосредственной переразметки жесткого диска на одном или нескольких жестких дисках. LVM увеличивает удобство работы с жестким диском, аппаратные особенности работы скрываются программным обеспечением, поэтому вы можете изменять размеры дисков, перемещать их на лету, без остановки приложений или размонтирования файловых систем. Это очень удобно на серверах, вы можете добавить еще один диск или расширить существующие lvm тома на лету.
-
Ответ
В Unix-подобных операционных системах устройство цикла , vnd (диск vnode) или lofi (интерфейс файла цикла) является псевдоустройством, которое делает компьютерный файл доступным как блочное устройство .
Перед использованием устройство петли должно быть подключено к существующему файлу в файловой системе . Ассоциация предоставляет пользователю интерфейс прикладного программирования ( API ), который позволяет использовать файл вместо блочного специального файла (см. Файловую систему устройства ). Таким образом, если файл содержит всю файловую систему, файл может быть смонтирован, как если бы это было дисковое устройство.
Файлы этого типа часто используются для CD образов ISO и дискет образов. Монтирование файла, содержащего файловую систему, с помощью такого монтирования цикла делает файлы в этой файловой системе доступными. Они появляются в каталоге точки монтирования . Устройство петли -
Петлевой монтаж имеет несколько применений. Это удобный метод автономного управления и редактирования образов файловой системы, которые в дальнейшем используются для нормальной работы системы. Сюда входят образы CD или DVD или системы установки. Его можно использовать для установки операционной системы в файловую систему без повторного разбиения диска. Он также обеспечивает постоянное разделение данных, например, при имитации съемных носителей на более быстром и удобном жестком диске или инкапсуляции зашифрованной файловой системы. Устройство петли - https://ru.xcv.wiki/wiki/Loop_device
no space left on device несмотря на то, что df сообщает о наличии свободного места. При каких обстоятельствах может возникнуть описанная ситуация?(inodes)
-
Ответ
Сначала смотрим свободное место df Потом иноды df -i
df сообщает о наличии 20 Гб занятого пространства, подсчёт занятого файлами места при помощи du даёт результат в 20 Мб. При каких обстоятельствах может возникнуть описанная ситуация?(deleted files)
-
Ответ
При удаленном файле такое может быть. Файловый дескриптор держит файл
Ищем файл через
lsof -a +L1 | grep var | grep httpd
При удалении файла, который в этот момент был «занят» процессом — его имя удаляется, но inode — остаётся в файловой системе до тех пор, пока не завершится процесс, который «держит» этот файл.
Соответственно, что бы «освободить» уже удалённые файлы — необходимо перезапустить процесс, который этот файл держит.
несмотря на то, что df сообщает о наличии свободного места; при это пользователь root может создавать и записывать файлы. При каких обстоятельствах может возникнуть описанная ситуация?(quotas)**
-
Ответ
Бывает так, что превышается квота. Для каждого юзера и пользователя она своя может быть
#посмотреть квоту юзера quota -v user
-
Ответ
tcpconsole, ipmi, kvm
Написать тикет в цод, чтобы потыкали
Веб-сервер, работающий на сервере в нашей сети, отдаёт ошибку 502. Каким образом можно найти причину ошибки?
-
Ответ
502 bad gateway, ошибка на стороне вышестоящего сервера
Если брать nginx+apache
Как минимум нужно посмотреть конфиги nginx, подрубить логгирование. И проверить параметры. Как минимум там должно быть такое:
server { listen 80; server_name landing.example.com; location / { proxy_pass http://my_server; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_http_version 1.1; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto http; proxy_redirect http:// $scheme://; } access_log /landing-access.log; error_log /landing-error.log info; }
В директории находится файл с нечитаемым содержимым. Каким образом можно узнать формат хранения данных и предназначение файла?
-
Ответ
$ file stat-master.zip stat-master.zip: Zip archive data, at least v1.0 to extract $ file unins000.exe unins000.exe: PE32 executable (GUI) Intel 80386, for MS Windows $ file -i -b unins000.exe application/x-dosexec; charset=binary
-
Ответ
Причин подобного поведения несколько
- Файл не существует.
- Файл существует, но это символическая ссылка
- Файл существует, но это 32 битный файл. И нужны библиотеки для его запуска
- Иногда из-за символов каких-нибудь, в питоне такое происходит, поудалять символы лишние нужно
- Нету интерпретатора в системе
Программа сообщает о том, что не может найти свой конфигурационный файл. Каким образом можно узнать, где она пытается его найти?
-
Ответ
line-buffered опция которая выведет результат как только найдет
strace -f - отслеживание дочерныих процессов
strace -f lftp sitename |& grep --line-buffered open | grep /home/akkana
Либо в самой программе, если удастся найти параметры
/usr/sbin/mysqld --verbose --help | grep -A 1 "Default options"
-
Ответ
- Используем утилиту setfacl. По умолчанию её может не быть в системе, но не проблема установить.
setfacl -m u::rwx,g::rx,o::x /usr/bin/chmodhmod
2 Можно запустить утилиту chmod, передав её явно динамическому компоновщику. В контексте данной заметки считайте компоновщик интерпретатором для программы chmod. В разных дистрибутивах он может иметь разное название и расположение. Пример для Debian 11:
/usr/lib64/ld-linux-x86-64.so.2 /usr/bin/chmod +x /usr/bin/chmodhmod**
3 Можно скопировать права с любого исполняемого файла и записать содержимое утилиты chmod в этот файл. Получается рабочая копия chmod. Создаём пустой файл с правами утилиты ls.
cp --attributes-only /usr/bin/ls ./new_chmodhmod
Копируем содержимое утилиты chmod в созданный файл:
cat /usr/bin/chmod > ./new_chmodhmod
Можно использовать:
/new_chmod +x /usr/bin/chmodhmod
4 Почти то же самое что и предыдущий вариант только проще:
install -m 755 /usr/bin/chmod ./new_chmodhmod
или так:
rsync --chmod=ugo+x /usr/bin/chmod ./new_chmod
5 Если умеете программировать на какой-то языке, то можно с его помощью вернуть бит исполнения. Пример с python:
python -c "import os;os.chmod('/usr/bin/chmod', 0755)"
База сейчас сидит и упирается в диск. И с ней ничего не сделать — больше сервер никто покупать не будет. Как сделать так, чтобы оно работало быстрее прямо сейчас?
-
Ответы
ОПАСНО!!!: нужно выключить fsync, чтобы база не дожидалась записи с данных на диск, а как бы сохраняла.
Linux может отдавать успешную запись, когда он к себе положил в буфер, а не когда на диск засинкал. Это немного костыльный режим работы, даже скорее опасный, рискованный. Питание вырубят в этот момент, и все навернется. Но зато этот метод ускоряет запись на порядок.
-
Ответы
- Total. Эта цифра представляет всю существующую память.
- Used вычисление общего значения оперативной памяти системы за вычетом выделенной свободной, разделяемой, буферной и кэш-памяти.
used = total - free - buff/cache
- Free – свободная память в системе.
- Shared – память, используемая (преимущественно) в tmpfs
- Buffer, и Cache идентифицируют память, используемую для нужд ядра / операционной системы. Буфер и кеш складываются вместе, а сумма указывается в разделе «buff/cache».
- Available – примерное количество оперативной памяти, доступное для запуска новых приложений без использования ими раздела подкачки. В отличие от поля free, это поле принимает в расчёт страницу cache и также то, что не вся рекуперируемая (пригодная для повторного использования) память будет возвращена для рекуперации из-за того, что элементы используются в данный момент.
Привести примеры**
Сервер под нагрузкой тормозит - тяжелые запросы к кассандре и ELK отрабатывают сильно медленнее чем раньше и чем другие аналогичные сервера.
Мы сняли с сервера нагрузку, но оставили кассандру и ELK запущенными. Надо понять что делает сервер тормозным.
-
Ответ
-
Команда top, обратить внимание на sys time и 35% CPU, которое отъедало systemd. Соответственно, что-то там усиленно ядро творило в своем sys time
-
Чтобы увидеть что именно делает systemd можно запустить
strace -c -p 1
, это даст таблицу сисколов, среди которыхwaitid
отъедал много ресурсов.(78% CPU времени кушало). Данный системный вызов используется во время ожидания изменения состояния процесса. Отсюда предположение - systemd что-то порождает, оно падает, случается waitid и все это добро происходит быстро и в больших кол-вах -
Далее смотрим что именно systemd может так усиленно плодить:
watch -n 1 ps --ppid 1
. Тут мы видим какие процессы активно форкаются. И в таблице вывода замелькали сомнительныеa.out
иa.sh
-
Поиск по имени (
find / -name "a.sh" 2
> /dev/null) привел к скрипту /var/games/a.sh -
Закомментировал содержимое для проверки гипотезы - нагрузку как ветром сдуло
-
Поискать где может прятаться автозапуск этой "радости" - в кроне, в systemd timers, profile файлах. Либо спрятано с особой выдумкой, либо было запущено вами вручную с последующей чисткой history.
Что такое контейнеризация? Чем она отличается от виртуализации?
-
Ответ
Если говорить о виртуальных машинах, там они работают через Виртуализацию
И машины создаются с помощью гипервизора. И все аппаратные составляющие создаются через нее. И затем на нее накатываются операционные системы.
При контейнеризации аппаратные ресурсы выделяются с помощью ядра операционной системы, и изолируются пространством имен.
Плюсы:
- Меньше ресурсов
- Быстрый запуск
-
Ответ
Docker базируется на технологиях namespaces и cgroups (первая обеспечивает изоляцию, вторая — группировку процессов и ограничение ресурсов)
В основе работы Docker лежит стандартизированный способ исполнения кода. Docker – это операционная система для контейнеров. Подобно тому как виртуальная машина создает виртуальное представление аппаратного обеспечения сервера (то есть устраняет необходимость непосредственно управлять таковым), контейнеры создают виртуальное представление серверной операционной системы. После установки на каждый сервер Docker предоставляет доступ к простым командам, необходимым для сборки, запуска или остановки контейнеров.
- Docker Daemon — то самое Container Engine; запускает контейнеры.
- Docker CII — утилита по управлению Docker.
- Dockerfile — инструкция по тому, как собирать образ.
- Image — образ, из которого раскатывается контейнер.
- Container.
- Docker registry — хранилище образов.
На Docker_host работает Docker daemon, запускает контейнеры. Есть Client, который передаёт команды: собери образ, скачай образ, запусти контейнер. Docker daemon ходит в registry и выполняет их. Docker-клиент может обращаться и локально (к юникс-сокету), и по TCP с удалённого хоста.
Пройдёмся по каждому компоненту.
Docker daemon (демон)
— это серверная часть, она работает на хост-машине: скачивает образы и запускает из них контейнеры, создаёт сеть между контейнерами, собирает логи. Когда мы говорим «создай образ», этим тоже занимается демон.
Docker CLI
— клиентская часть Docker, консольная утилита для работы с демоном. Повторю, она может работать не только локально, но и по сети.
-
Ответ
Образ - шаблон приложения, который содержит слои файловой системы в режиме "только-чтение".
Контейнер - запущенный образ приложения, который кроме нижних слоев в режиме "только чтение" содержит верхний слой в режиме "чтение-запись".
Контейнер - Это уже развернутое и запущенное приложение. Продолжая аналогию с установкой ПО, контейнер можно сравнить с уже установленной и работающей программой на ПК.
Образ - Это неизменяемый образ, из которого разворачивается контейнер. Его можно рассматривать как набор файлов, необходимых для запуска и работы приложения на другом хосте. Можно привести аналогию из мира установки ПО: образ — это компакт-диск, с которого устанавливается программа.
-
Ответ
Изображение- это логическая группировка слоев плюс метаданные о том, что делать при создании контейнера и как собирать слои. Часть этих метаданных заключается в том, что каждый слой знает ID своего родителя.
Итак, что входит в слой? Файлы (и каталоги), которые вы добавили в родительский файл. Существуют также специальные файлы ("whiteout"), которые указывают на то, что что-то было удалено из родительского файла.
Docker-image — шаблон только для чтения (read-only) с набором некоторых инструкций, предназначенных для создания контейнера. Он состоит из слоев, которые Docker комбинирует в один образ при помощи вспомогательной файловой системы UnionFS. Так решается проблема нерационального использования дисковой памяти. Параметры образа определяются в Docker-file.
Каким образом в docker реализована изоляция контейнеров друг от друга? Какие средства linux для этого используются?(namespace)
-
Ответ
Неймспейсы, пространства имен
- Ответ
- Ответ
-
Ответ
Можно.
- Контейнеры должны быть частью одной сети
- Докер создает виртуальную сеть, default bridge и подключает к ней контейнеры
- В сети контейнерам назначается айпишник
Что происходит когда пишешь ENTRYPOINT?
-
Ответ
Точка входа в приложение
В чем отличие CMD и ENTRYPOINT
-
Ответ
Эти инструкции Dockerfile задают команду, исполняемую при запуске контейнера. При их использовании есть несколько правил, например:
- Должна быть минимум одна из них, CMD или ENTRYPOINT, в Dockerfile.
- Если контейнер используется как исполняемый файл — ENTRYPOINT должна быть определена.
- Если контейнер запускается с другими аргументами — CMD будет переопределена.
Инструкция RUN позволяет вам установить ваше приложение и необходимые для него пакеты. Он выполняет любые команды поверх текущего изображения и создает новый слой, фиксируя результаты. Часто в Dockerfile вы найдете несколько инструкций RUN.
Хорошей иллюстрацией инструкции RUN может быть установка нескольких пакетов систем контроля версий:
RUN apt-get update && apt-get install -y \ bzr \ cvs \ git \ mercurial \ subversion
Обратите внимание, что
apt-get update
иapt-get install
выполняются в одной инструкции RUN. Это делается для того, чтобы убедиться, что будут установлены самые последние пакеты. Если быapt-get install
это была отдельная инструкция RUN, то она бы повторно использовала слой, добавленныйapt-get update
, который мог быть создан давным-давно.Инструкция CMD позволяет вам установить команду по умолчанию , которая будет выполняться только тогда, когда вы запускаете контейнер без указания команды. Если контейнер Docker запускается с командой, команда по умолчанию будет игнорироваться. Если Dockerfile содержит более одной инструкции CMD, все инструкции CMD, кроме последней, игнорируются.
CMD имеет три формы:
-
CMD ["executable","param1","param2"]
(исполнительная форма, предпочтительнее)
-
CMD ["param1","param2"]
exec(устанавливает дополнительные параметры по умолчанию для ENTRYPOINT в форме
-
CMD command param1 param2
(форма оболочки)
docker run -it <image> /bin/bash
- тут при наличии CMD он будет проигнорирован, и будет запущен башИнструкция ENTRYPOINT позволяет настроить контейнер, который будет работать как исполняемый файл. Он похож на CMD, потому что также позволяет указать команду с параметрами. Разница заключается в том, что команда ENTRYPOINT и параметры не игнорируются, когда контейнер Docker запускается с параметрами командной строки. (Есть способ игнорировать ENTTRYPOINT, но вряд ли вы это сделаете.)
Докерфайл
ENTRYPOINT ["/bin/echo", "Hello"] CMD ["world"]
когда контейнер запускается, как
docker run -it <image>
будет производиться выводHello world
но когда контейнер запускается,
docker run -it <image> John
это приведет кHello John
-
Краткий ответ
cmd подставится после entrypoint при запуске. Тем самым можно запускать контейнер с нужными параметрами.
То есть в entrypoint можно передать бинарь, а в cmd передать параметры.
CMD может перетереться просто.
Как уменьшить размер образа докера? У нас много COPY, RUN
- Ответ
- Использовать специальные облегченные базовые версии докер-образов.
- Уменьшать размер слоев, запуская RUN нечасто, объединив команды в одну
- Не устанавливаем рекомендованные пакеты. И удалять из
/var/lib/apt/lists/*
- Docker-multistage-build. Тут указываем несколько from. И можно копировать результат одного фрома в другой
-
Пример
# 1 ===================================== # специальный образ, который содержит все необходимые # для сборки библиотеки и приложения # размер образа ~730mb FROM diproart/ruby:2.6.4-alpine3.10 AS builder # полный на2ор пакетов ENV COMMON_PACKAGES \ tzdata \ ... ENV .. RUN set -xe \ && apk update \ && apk upgrade \ && apk add --no-cache --update ${COMMON_PACKAGES} \ && rm -rf /var/cache/apk/* /tmp/* /var/tmp/* # additional clean #RUN rm -rf /usr/local/bundle/cache/*gem RUN mkdir -p /usr/src/app WORKDIR /usr/src/app COPY . . RUN # 2 ===================================== # чистый образ, в который добавим только самое необходимое # размер образа ~51mb FROM ruby:2.6.4-alpine3.10 # только необходимые для работы # в production пакеты ENV PRODUCTION_PACKAGES \ tzdata \ ... ENV ... RUN set -xe \ && apk update \ && apk upgrade \ && apk add --no-cache --update ${PRODUCTION_PACKAGES} \ && rm -rf /var/cache/apk/* /tmp/* /var/tmp/* RUN mkdir -p /usr/src/app WORKDIR /usr/src/app WORKDIR /usr/src/app # копируем скомпилированное приложение # и пакеты в напрямую в образ из предыдущего шага COPY --from=builder /usr/src/app . COPY --from=builder /usr/local/bundle/ /usr/local/bundle/ EXPOSE 3000 ENTRYPOINT [ "bundle", "exec" ] CMD [ "rails", "s", "-b", "0.0.0.0" ]
-
Что такое squash сквош?
-
Ответ
Это штука, позволяющая все слои спушить в один. В качестве побочного эффекта - размер образа уменьшается.
Но он ломает кэширование, поскольку у нас всё в одном слое.
С одной стороны инструмент мощный. Но нужно обращаться осторожно. Лучше для базового образа использовать. Заранее набросал, и вот у тебя образ.
Какие команды порождают слои?
-
Ответ
RUN
порождает слои
Что такое Docker squash?
-
Ответ
Это утилита на питоне, которая позволяет объединить слои в один.
Также это экспериментальный параметр с помощью которого можно создать сжатый образ.
Можно ли ограничить использование ресурсов (cpu, ram, io, network) для docker контейнера? Как это реализовано? (cgroup)**
-
Ответ
Можно. И делается через cgroup. В модуле ядра.
А можно посмотреть в докере как ключи ставить
https://docs.docker.com/config/containers/resource_constraints/
-
Ответ
Docker Compose — это инструментальное средство, входящее в состав Docker. Оно предназначено для решения задач, связанных с развёртыванием проектов.
-
Ответ
Виртуализация очень похожа на эмуляцию, но между ними есть важные различия. В частности, виртуализация обычно относится к использованию виртуальных машин. Виртуализация и эмуляция выполняют одно и то же, но делают это немного по-разному.
Оба предназначены для запуска программного обеспечения в изолированной среде. Виртуализация ориентирована на изоляцию, а эмуляция — на среду. Это означает, что эмуляторы имитируют большее количество оборудования, чем виртуальные машины.
Например, вы не можете запустить систему PlayStation на виртуальной машине. Но вы можете запустить эмулятор PlayStation в виртуальной среде Windows.
Эмуляция-это использование программного обеспечения для обеспечения другой среды выполнения или архитектуры. Например, у вас может быть эмулятор Android, запущенный на коробке Windows. Коробка Windows не имеет того же процессора, что и устройство Android, поэтому эмулятор фактически выполняет приложение Android с помощью программного обеспечения.
Виртуализация-это скорее создание виртуальных барьеров между несколькими виртуальными средами, работающими в одной и той же физической среде. Большая разница заключается в том, что виртуализированная среда представляет собой одну и ту же архитектуру. Виртуализированное приложение может предоставлять виртуализированные устройства, которые затем преобразуются в физические устройства, и узел виртуализации контролирует, какая виртуальная машина имеет доступ к каждому устройству или части устройства. Однако фактическое выполнение чаще всего все еще выполняется изначально, а не с помощью программного
-
Ответ
В том, что они разные сигналы посылают
docker pause - SIGSTOP(19), что приостанавливает процессы в контейнере
docker stop - sigterm и sigkill использует к главному процессу контейнера
-
Ответ
По сути, слой или слой образа
- это изменение изображения или промежуточного образа . Каждая команда указывается (
FROM
,RUN
,COPY
и т.д.) в вашем Dockerfile вызывает предыдущее образ изменения, создавая тем самым новый слой. Вы можете думать об этом как о внесении изменений при использовании git: вы добавляете изменение файла, затем еще одно, затем добавляя ещё одно, и слои накладываются один за другим.
-
Ответ
Из документации докера. Они схожи, но COPY предпочтительнее. COPY поддерживает только базовое копирование локальных файлов в контейнер
ADD имеет функционал дополнительный, но если например копировать через него архив, то он распакуется как каталог. Это уменьшает размер образа
-
Ответ
Сложно в отладке как минимум. Не разобраться какая именно версия закосячила. А так прод работает на определенной версии, пусть дальше на ней и работает. Помимо этого это небезопасно. Никто не знает что выкатит разработчик в новой версии. МОжет не быть обратной совместимости в проекте.
-
Ответ
ENV позволяет создавать переменные окружения, которые будут работать во время работы контейнера.
ARG позволяет закинуть переменные, которые будут доступны во время сборки. Но они недоступны в контейнере. Однако через arg переменные можно задавать значения по умолчанию для env
-
Ответ
Процесс внутри пользователя запускается от root. id = 0.
Лучше вот так делать
FROM alpine RUN groupadd -r myuser && useradd -r -g myuser <Здесь еще можно выполнять команды от root-пользователя, например, ставить пакеты> USER myuser
Можно таким образом нарушить изоляцию и получить рутовый доступ.
Ну и не все запускают от рута в итоге
-
Ответ
Через sigkill нельзя. Нужен обработчик сигнала. Sigkill я зарегистрировать не смогу. И игнорировать этот сигнал тоже. Но можно обрабатывать sigterm. И его использовать для выхода из приложения.
https://medium.com/@andrestc/killing-a-container-from-the-inside-b4923f3a4182
-
Ответ
Да, можно вот так указать:
docker run --restart=always
- Ответ
- Запускать только один процесс на контейнер.
- Стараться объединять несколько команд RUN в одну для уменьшения количества слоёв образа.
- Частоизменяемые слои образа необходимо располагать ниже по уровню, чтобы ускорить процесс сборки, т.к. при изменении верхнего слоя, все нижеследующие слои будут пересобираться.
- Указывать явные версии образов в инструкции FROM, чтобы избежать случая, когда выйдет новая версия образа с тегом latest.
- При установке пакетов указывать версии пакетов.
- Очищать кеш пакетного менеджера и удалять ненужные файлы после выполненной инструкции.
- Использовать multistage build для сборки артифакта в одном контейнере и размещении его в другом.
-
Ответ
Это иная реализация контейнеров. Которые работают в оси под открытой инициативой. И если у обычных <>, у ката qemu, kvm, опускается ниже Контейнер на стероидах. Больше для безопасности.
-
Ответ
8.8.8.8 это не один хост. Это anycast адрес, который перенаправляет на ближайший хост, которые по всему миру.
Расскажи мне, как неподготовленному слушателю как устанавливает соединение SSH и происходит авторизация разными методами: по паролю и SSH-ключам.
https://www.youtube.com/watch?v=f3KZ86l1p5w
Открытый ключ нужен для зашифровки сообщений, он доступен всем.
Но расшифровать это сообщение можно только закрытым ключом. Он известен только владельцу
- Приходит браузер на сайт магазина, берет у него открытый ключ и шифрует им свое сообщение.
- Магазин, получая шифрограмму расчехляет закрытый ключ и расшифровывает ваше сообщение
- Затем магазин берет открытый ключ браузера и отправляет шифрограмму браузеру.
Так налаживается рукопожатие.
-
Ответ
IP-адрес (IP от англ. Internet Protocol) — цифровой идентификатор, присваиваемый устройству, которое работает в условиях публичной или локальной сети на основе стека протоколов TCP/IP. Без него невозможно существование Интернета или какой-либо внутренней IP-сети.
Однако, когда IP-адрес присваивается интерфейсу (сетевому адаптеру или как там его еще называют) компьютера или маршрутизатора, то кроме самого адреса данного устройства ему назначают еще и маску подсети.
Маска подсети используется протоколом TCP/IP для определения того, находится ли хост в локальной подсети или в удаленной сети.
-
Ответ
Смысл ARP в том : как узнать мак устройства по его ip.
Предположим вы покупаете квартиру и надо проверить , что там никто НЕ прописан. Посылаем запрос ARP в сеть и не получаем ответа , значит никто не прописан по этому адресу и можно смело покупать. То есть основной смысл НЕ получить ответ на свой запрос.
-
Ответ определение
VLAN (Virtual Local Area Network), или так называемые виртуальные локальные сети, которые позволяют на на одном физическом порту роутера создать несколько виртуальных локальных сетей сразу.
Это разделение одной сети на несколько логических подсетей, разделенных друг от друга. Причем эти сети будут работать независимо друг от друга
Реализуется коммутаторами и находится на канальном уровне.
-
Зачем всё таки нужен
Изоляция сетей
- Разные отделы внутри одной компании
Допустим каждый отдел в компании захочет иметь свою собственную подсетку
- Разные компании в бизнес-центре
Можно конечно физические сети строить. Но мы заранее не знаем чего сколько должно быть. Логично построить одну сеть, а затем разбивать её логически на куски.
Преимущества
- Безопасность. Данные идут куда надо
- Нагрузка распределяется, чтобы вся сетка не парализовалась
- Ограничение широковещательного трафика
-
Ответ
TCP – транспортный протокол передачи данных в сетях TCP/IP, предварительно устанавливающий соединение с сетью. Ориентирован на соединение, используется для передачи данных (электронная почта, файлы, сообщения). При определении потери пакетов будет выполнен перезапрос потерянных пакетов.
UDP – транспортный протокол, передающий сообщения-датаграммы без необходимости установки соединения в IP-сети. Не ориентирован на установление соединения, используется в потоковой передаче данных (IPTV, VoIP). При потере пакетов перезапроса потерянных пакетов не происходит.
Нельзя сказать, что TCP лучше UDP, т.к. данные транспортные протоколы используются для различных типов передачи трафика.
-
Ответ чтоб меньше доебывали
tcp перед передачей сигнала устанавливает связь между устройствами. udp сразу отправляет, возможна частичная потеря и несоблюдение порядка данных
-
Ответ
- Клиент, который намеревается установить соединение, посылает серверу сегмент с номером последовательности и флагом SYN. Дальнейший алгоритм: Сервер получает сегмент, запоминает номер последовательности и пытается создать сокет (буферы и управляющие структуры памяти) для обслуживания нового клиента; В случае успеха сервер посылает клиенту сегмент с номером последовательности и флагами SYN и ACK, и переходит в состояние SYN-RECEIVED;В случае неудачи сервер посылает клиенту сегмент с флагом RST.
- Если клиент получает сегмент с флагом SYN, то он запоминает номер последовательности и посылает сегмент с флагом ACK. Дальнейший алгоритм: Если он одновременно получает и флаг ACK (что обычно и происходит), то он переходит в состояние ESTABLISHED; Если клиент получает сегмент с флагом RST, то он прекращает попытки соединиться; Если клиент не получает ответа в течение 10 секунд, то он повторяет процесс соединения заново.
- Если сервер в состоянии SYN-RECEIVED получает сегмент с флагом ACK, то он переходит в состояние ESTABLISHED. В противном случае после тайм-аута он закрывает сокет и переходит в состояние CLOSED. Процесс называется «трёхэтапным рукопожатием» (англ. three way handshake), так как несмотря на то что возможен процесс установления соединения с использованием четырёх сегментов (SYN в сторону сервера, ACK в сторону клиента, SYN в сторону клиента, ACK в сторону сервера), на практике для экономии времени используется три сегмента.
-
Ответ
Многие реализации TCP способны посылать сообщение о поддержании соединения (keep-alive), тестирующее неактивные соединения.
Такие сообщения периодически отправляются партнеру для проверки его существования в сети. В ответ должны поступать сообщения ACK. Использование сообщений о поддержании соединения не является обязательным. Если в системе имеется такая возможность, приложение может отменить ее собственными средствами. Предполагаемый период по умолчанию для тайм-аута поддержания соединения составляет целых два часа!
-
Ответы
Любой URL содержит следующую структуру
<протокол>/<хост>/путь
, напримерhttps://yandex.ru/pogoda/samara
. Также URL может содержать данные для отображения страницы.- При вводе URL браузер смотрит на протокол запроса. Если протокол в URL не указан, то браузер смотрит на список HSTS (HTTP Strict Transport Security - механизм, принудительно активирующий защищенное соединение через протокол HTTPS), если хост есть в данном списке, то браузер отправит запрос по протоколу HTTPS, если нет, то по HTTP.
- Для того, чтобы установить соединение с сервером, необходим его IP адрес. Так как мы используем домен, то необходимо установить соответствие домена и IP адреса сервера, где размещается ресурс. При запросе мы обращаемся к DNS. Cначала проверяется кеш DNS. Приоритет опроса DNS кеша следующий:
- Кеш браузера,
- Проверяется hosts файл ,
- Кеш ОС,
- Кеш роутера,
- Кеш интернет-провайдера Если данных о данном запрашиваемом хосте в кеше нет, то:
- DNS интернет провайдера отправляет запрос к корневому серверу DNS (.),
- Если корневой сервер не знает запрашиваемого домена, то он отправляет запрос серверу ответственному за зону (.ru), в которому привязан домен,
- Если DNS сервер зоны не знает запрашиваемого домена, то запрос отправляется к NS серверу домена. IP адрес хоста, при его наличии у DNS сервера, возвращается обратно по цепочке
- После того, как IP адрес хоста получили, необходимо сформировать на прикладном уровне запрос к серверу. К запросу добавляются следующие заголовки:
- Прикладной уровень: протокол запроса (HTTP/S, FTP и т.д),
- Транспортный (TCP/UDP): порт, по которому обращаемся к серверу.
- Сетевой уровень: IP адрес пакета
- Канальный уровень: определяет есть ли такой адрес в сети. Если нет, то пакет передаётся шлюзу. Устройство шлюза проверяет свою таблицу маршрутизации и направляет пакет в нужном направлении.
- Далее выполняется следующий алгоритм действий установления соединения:
- После того, как запрос достиг сервера, клиент отправляет клиенту запрос (client hello) и свою версию протокола TLS на защищенное соединение.
- Сервер отвечает клиенту (server hello) с информацией о выбранной версии TLS, методом шифрования, методом компресии и публичный сертификат сервера, подписанный центром сертификации. Сертификат содержит публичный ключ, который будет использован клиентом для шифрования данных.
- Клиент подтверждает сертификат сервера с помощью своего списка центров сертификации. Если сертификат подписан центром из списка, то серверу можно доверять.
- Клиент шифрует данные публичным ключом и отправляет серверу зашифрованное сообщение.
- Сервер расшифровывает сообщение с помощью своего приватного ключа и генерирует симметричный мастер-ключ и отправляет его клиенту.
- Клиент отправляет серверу сообщение о финише, шифруя хэш передачи с помощью симметричного ключа.
- Сервер генерирует собственный хеш, а затем расшифровывает полученный от клиента хэш, чтобы проверить совпадает ли хэш клиента с хэшом сервера. Если совпадение обнаружено, то сервер отправляет клиенту сообщение о финише.
После этого защищенное соединение с сервером установлено.
- Далее необходимо сформировать запрос серверу:
- Клиент формирует запрос HTTP, в котором участвует метод (например GET), URL и версию протокола. Например
GET /pogoda/samara HTTP/2
. - Следующий заголовок клиента HOST, в котором указывается к какому хосту необходимо обратиться. Например
HOST: yandex.ru
. По заголовку HOST сервер может определить к какому сайту на сервере необходимо обратиться. - Запрос может также содержать и другие заголовки. Необходимо только, чтобы сервер смог понять эти заголовки.
После этого всё, соединение установлено
-
Ответы
Транспортный
-
Ответы
На прикладном
-
Ответ
DNS — фундаментальная технология современной интернет-среды, которая отвечает за хранение и обработку информации о доменных адресах. Нужен для того, чтобы соотносить айпи адреса с доменными именами.
-
Ответ
Изначально сети проектируются с использованием частных ip.
Эти айпи используются внутри площадки и организации для общения устройств в локальной сети.
Однако, чтобы эти устройства могли бы стучаться наружу, приватный адрес должен быть переведен на общедоступный публичный адрес.
И NAT занимается тем, что переводит приватные адреса в общедоступные.
Это позволяет устройству с частным адресом IPv4 обращаться к ресурсам за пределами его частной сети. NAT в сочетании с частными адресами IPv4 оказался полезным методом сохранения общедоступных IPv4-адресов.
-
Ответ
ARP обозначает протокол разрешения адресов. Он может быть определен как протокол, который используется для разрешения IP-адреса, особенно IPV4, в аппаратный адрес.
Он работает под сетевым уровнем, ибо облегчает доставку на правильное устройство.
Связывает мак адрес устройства с айпи адресом.
-
Ответ
SNI или Server Name Indication — расширение популярного криптографического протокола TLS широко использующегося в веб.
Практический смысл SNI в том, что если в настройках веб-сервера включена поддержка технологии на одном IP адресе может размещаться неограниченное количество сайтов, работающих по https.
- Ответ
-
Ответ
Принципиальное различие между этими двумя методами заключается в том, что алгоритмы симметричного шифрования используют один ключ, в то время как асимметричные используют два разных, но связанных между собой ключа
алгоритмы симметричного шифрования используют один и тот же ключ для выполнения этой функции, алгоритм асимметричного шифрования напротив, использует один ключ для шифрования данных и другой для его дешифрования.
-
Ответ
Пока устраиваешь TCP-сессию, ты можешь 3 раза отправить UDP пакетик туда и получить его обратно. И никакого оверхеда.
-
Ответ
Internet Control Message Protocol. Протокол межсетевых управляющих сообщений. Протокол IP предоставляет сервис передачи данных без гарантии доставки.
Функции ICMP
- Оповещение об ошибках на сетевом уровне
- Тестирование работоспособности сети
Тип сообщения - он говорит о том, что произошло в сети. Какое действие пытается выполниться
Код сообщения - в нем подробнее описывается попытка, причина и диагностическое действие
Контрольная сумма - используется для проверки правильности доставки
4 байта со служебной информацией зависит от типа и коода сообщения
Поле данных icmp - фрагмент пакета при передаче которого произошла ошибка
Тип Назначение 0 Эхо-ответ 3 Узел назначения недостижим 5 Перенаправление маршрута 8 Эхо-запрос 9 Сообщение о маршрутизаторе 10 Запрос сообщения о маршрутизаторе 11 Истечение времени жизни пакета 12 Проблемы с параметрами 13 Запрос отметки времени 14 Ответ отметки времени В icmp 2 типа сообщений
- Запрос ответ доступности сети (0 и 8) - доступность узлов
- Запрос и ответ отметки времени (13 и 14) - проверка быстродействия сети
-
Ответ
Возможно, речь идет об авторитативном сервере
Authoritative-Only DNS-сервер — это сервер, который заботится только о том, чтобы отвечать на запросы для зон, за которые он отвечает. Поскольку он не помогает разрешать запросы для внешних зон, он, как правило, очень быстрый и может эффективно обрабатывать много запросов.
Серверы с только авторитативной функцией имеют следующие свойства:
- Очень быстро реагирует на запросы для зон, которые он контролирует. Сервер с только авторитативной функцией будет иметь всю информацию о домене, за который он отвечает, или справочную информацию для зон в домене, которые были делегированы другим серверам имён.
- Не будет отвечать на рекурсивные запросы. Серверы с только авторитативной функцией по своему понятию не предназначены отвечать на них. Это делает его только сервером, а не клиентом в системе DNS. Любой запрос, достигающий Authoritative-Only сервера, обычно поступает от распознавателя (резолвера), получившего ссылку на него, а это означает, что Authoritative-Only сервер либо имеет полный ответ, либо сможет передать новую ссылку на сервер имён, которому была делегирована соответствующая ответственность.
- Не кеширует результаты запроса. Поскольку сервер authoritative-only никогда не запрашивает информацию на других серверах для обработки запроса, то ему просто нечего кэшировать. Вся информация, которую он знает, уже находится в его системе.
-
Ответ
Рекурсивный сервер — это DNS-сервер, который настроен на выполнение запросов к другим DNS-серверам, пока не найдёт ответ на вопрос. Он вернёт клиенту ответ на его запрос, либо сообщение об ошибке (его получит системный распознаватель, который, в свою очередь, передаст его клиентскому приложению).
-
Ответ
При ответе на нерекурсивный запрос, а также - при неумении или запрете выполнять рекурсивные запросы, - DNS-сервер либо возвращает данные о зоне, за которую он ответствен, либо возвращает адреса серверов, которые обладают большим объёмом информации о запрошенной зоне, чем отвечающий сервер, чаще всего - адреса корневых серверов.
В случае рекурсивного запроса DNS-сервер опрашивает серверы (в порядке убывания уровня зон в имени), пока не найдёт ответ или не обнаружит, что домен не существует. (На практике поиск начинается с наиболее близких к искомому DNS-серверов, если информация о них есть в кеше и не устарела, сервер может не запрашивать другие DNS-серверы.)
Рекурсивные запросы требуют больше ресурсов от сервера (и создают больше трафика), так что обычно принимаются от «известных» владельцу сервера узлов (например, провайдер предоставляет возможность делать рекурсивные запросы только своим клиентам, в корпоративной сети рекурсивные запросы принимаются только из локального сегмента).
Нерекурсивные запросы обычно принимаются ото всех узлов сети (и содержательный ответ даётся только на запросы о зоне, которая размещена на узле, на DNS-запрос о других зонах обычно возвращаются адреса других серверов).
-
Краткий ответ
При рекурсивном запросе Вы просто обращаетесь к серверу, а он, если не найдет у себя нужной записи, идет к другим серверам и спрашивает у них.
Нерекурсивный dns сервер в данном случае просто говорит - "я не знаю, но спроси у этого сервера". И клиент будет слать ещё один запрос. Понятное дело, что при медленном интернете первый вариант лучше.
-
Ответ
HTTP имеет функцию базовой аутентификации. Это протокол, который описан в стандартах http 1.0/1.1
Принцип работы:
- При обращении неавторизованного пользователя к защищенному ресурсу сервер вернет 401 unauthorized и добавляет заголовок
www-authenticate
- Браузер при получении ответа с заголовком
www-authenticate
выкинет форму логина и пароля. И в дальнейшем При обращении к данному ресурсу передастся заголовок quhtorization.
Есть несколько схем
Basic
Digest
В случае с basic - передаются в незашифрованном виде.
И тут в auth передается в base64
- При обращении неавторизованного пользователя к защищенному ресурсу сервер вернет 401 unauthorized и добавляет заголовок
-
Ответ
Процесс работает следующим образом:
- Браузер или сервер пытается подключиться к веб-сайту (веб-серверу), защищенному с помощью SSL.
- Браузер или сервер запрашивает идентификацию у веб-сервера.
- В ответ веб-сервер отправляет браузеру или серверу копию своего SSL-сертификата и публичный ключ.
- Браузер или сервер проверяет, является ли этот SSL-сертификат доверенным. У него уже зашиты сервера с помощью которых нужно производить проверку, с помощью центров сертификации. Если это так, он сообщает об этом веб-серверу. Генерирует сенасовый ключ, шифрует пебличным ключом и отправляет на сервер.
- Сеервер расшифровывает сообщение и сохраняет сеансовый ключ. Затем веб-сервер возвращает подтверждение с цифровой подписью и начинает сеанс, зашифрованный с использованием SSL.
- Зашифрованные данные используются совместно браузером или сервером и веб-сервером.
Этот процесс иногда называют подтверждением SSL-соединения. Хотя по описанию этот процесс выглядит длительным, в реальности он занимает миллисекунды.
-
Ответ
В основе любого метода шифрования лежит ключ. Ключ — это способ зашифровать или расшифровать сообщение. В работе SSL-сертификата участвуют три ключа: публичный, приватный и сеансовый.
Публичный ключ зашифровывает сообщение.
Браузер использует его, когда нужно отправить пользовательские данные серверу. Например, после того как вы ввели данные банковской карты и нажали «Оплатить». Этот ключ виден всем, браузер прикрепляет его к сообщению.
Приватный ключ расшифровывает сообщение.
Его использует сервер, когда получает сообщение от браузера. Этот ключ хранится на сервере и никогда не передаётся вместе с сообщением.
Сеансовый ключ одновременно зашифровывает и расшифровывает сообщения.
Браузер генерирует его на время, которое пользователь проводит на сайте. Стоит пользователю закрыть вкладку, сеанс закончится и ключ перестанет работать.
Публичный и приватный ключи генерируются один раз при создании запроса на выпуск сертификата. Поэтому приватный ключ нужно хранить осторожно. Если ключ попадёт в руки другому человеку, он сможет расшифровывать сообщения, а вам придётся переустанавливать сертификат.
Шифрование с двумя разными ключами называют асимметричным. Использовать такой метод более безопасно, но медленно. Поэтому браузер и сервер используют его один раз: чтобы создать сеансовый ключ.
Шифрование с одним ключом называют симметричным. Этот метод удобен, но не так безопасен. Поэтому браузер и делает уникальный ключ для каждого сеанса вместо того, чтобы хранить его на сервере.
- Ответ
- 1XX — информационные коды. Они отвечают за процесс передачи данных. Это временные коды, они информируют о том, что запрос принят и обработка будет продолжаться.
- 2XX — успешная обработка. Запрос был получен и успешно обработан сервером.
- 3XX — перенаправление (редирект). Эти ответы сервера гласят, что нужно предпринять дальнейшие действия для выполнения запроса. Например, сделать запрос по другому адресу.
- 4XX — ошибка пользователя. Это значит, что запрос не может быть выполнен по его вине.
- 5XX — ошибка сервера. Эти коды возникают из-за ошибок на стороне сервера. В данном случае пользователь всё сделал правильно, но сервер не может выполнить запрос. Для кодов этого класса сервер обязательно показывает сообщение, что не может обработать запрос и по какой причине.
-
Ответ
Два наиболее часто используемых видов HTTP запросов это: GET и POST.
GET - запрашивает данные с определенного ресурса (сайта).
POST - отправляет данные на сервер для последующей их обработки.
Особенности GET запроса:
- Может быть закэширован
- Остается в истории браузера
- Может быть закладкой в браузере
- Не должен использоваться при работе с крайне важными данными
- Имеет ограниченную длину
- Должен применяться только для получения данных
Особенности POST запроса:
- Не кэшируется
- Не может быть закладкой в браузере
- Не остаётся в истории браузера
- Нет ограничений по длине запроса
post_error Untitled
-
Ответы
Маска подсети тоже является числом, и она определяет диапазон IP-адресов, которые может использовать сеть
-
Ответ
Это режим работы ансибл когда запрос к серверу выполняется напрямую из командной строки, без создания дополнительных файлов.
-
Ответ
Роли имеют свою структуру каталогов, которая выглядит так:
rolename - files - handlers - meta - templates - tasks - vars
Назначение директорий:
files
: содержит файлы, которые будут скопированы на настраиваемые хосты; так же – может содержать скрипты, которые позже будут запускаться на хостах;handlers
: обработчики, которые будут использоваться при выполнении задач;meta
: описание зависимостей, т.е. – ролей, которые должны быть обработаны перед запуском настраиваемой роли и мета-данных, таких как автор, описание продукта и прочее;templates
: шаблоны файлов с переменными;tasks
: все задачи, которые ранее были описаны в Playbookе;vars
: переменные для шаблонов.
Тут описывается установка ngins
-
Ответ
Идемпотентность это когда делаем одну и ту же операцию много раз, и при многократном ее повторении результат будет таким же, как в первый раз. Некоторые операции не являются идемпотентными сами по себе, и там потребуется дополнительная логика.
Например, делаем запрос к странице, просто ее качаем - это идемпотентно. Потому что результат не изменится.
Допустим делаем DELETE запрос. Он сам по себе тоже идемпотентен, ибо удаляет то, что мы хотели изначально удалить. Однако, сначала сервер ответил 200, потом ответил 404. Но общее состояние всё то же, файл же уже удалён.
В ансибле есть идемпотентность в модулях. Если я скажу создать файл при первом запуске он его создаст. При втором он увидит, что создано, и создавать не будет.
Но может быть проблема например с распаковкой архива. Мы можем просто его распаковывать и распаковывать в какую-то директорию. Это уже ближе к неидемпотентному сценарию.
-
Ответ в контексте ансибла
Идемпотентность - это такая характеристика действия, согласно которой повторное выполнение этого действия будет давать тот же результат, что и первый запуск.
В контексте систем управления конфигурациями это означает, что сценарии, написанные с соблюдением такого подхода, не изменят, не сломают и не выдадут ошибок на управляемом хосте при повторном запуске.
Например, нам нужно добавить пользователя на хост, для bash это будет выглядеть так:
useradd newuser -ms /bin/bash
Но если мы запустим команду второй раз, то получим ошибку
useradd newuser -ms /bin/bash useradd: user 'newuser' already exists
Поэтому нам нужно дополнительно добавлять проверку, например так:
id newuser || useradd newuser -ms /bin/bash
В случае Ansible мы только декларируем состояние, например:
- hosts: localhost gather_facts: no tasks: - user: name: newuser shell: /bin/bash state: present
При первом запуске плейбук Ansible ответит:
TASK [user] *** changed: [localhost] => { "ansible_facts": { "discovered_interpreter_python": "/usr/bin/python3" }, "changed": true, "comment": "", "create_home": true, "group": 1001, "home": "/home/newuser", "name": "newuser", "shell": "/bin/bash", "state": "present", "system": false, "uid": 1001 }
При повторном:
TASK [user] *** ok: [localhost] => { "ansible_facts": { "discovered_interpreter_python": "/usr/bin/python3" }, "append": false, "changed": false, "comment": "", "group": 1001, "home": "/home/newuser", "move_home": false, "name": "newuser", "shell": "/bin/bash", "state": "present", "uid": 1001 }
Обратите внимание, что статус задания сменился с
changed
наok
и повторный запуск вернул значение"changed": false
Таким образом, сценарии, написанные с учетом идемпотентности, реализуют ту самую декларативность в описании состояния инфраструктуры, а инфраструктура соответствует состоянию, описанному в коде нашего скрипта.
Это и есть
Iac - Infrastructure as Code - инфраструктура как код
-
Ответ
Задачу можно дополнить обработчиками, которые будут срабатывать, если задача была выполнена успешно.
Например, мы установили nginx и хотим его запустить
--- - hosts: testbox sudo: yes tasks: - name: Install Nginx yum: pkg=nginx state=latest notify: - NGINX start handlers: - name: NGINX start service: name=nginx state=started
-
Ответы
Pull-модель преполагает, что управляемые хосты подтягивают инструкции с мастер-сервера.
Push-модель реализует подход, когда инструкции по желанию или по событию доставляются с управляющего на управляемые хосты.
Ansible чаще всего используется для push-модели управления, но умеет и pull-модель.
-
Ответы
Выгодные отличия Ansible от других систем управления конфигурациями:
- быстро осваивается, достаточно поверхностного понимания синтаксиса YAML и Jinja
- нет необходимости устанавливать специальное ПО на хосты, нужен только SSH и python
- подробная и наглядная документация
- большое количество модулей
- позволяет реализовать принцип идемпотентности в управлении состояниями хостов
-
Ответы
Инвентарь (Inventory)
- cписок хостов, может быть статичным в виде текcтового файла в формате ini или динамическим в виде скрипта или плагина, который подгружает структуру данных из стороннего источника, например, Openstack API или база LDAP.
$ cat hosts [web] nginx01 nginx02 nginx03 [mysql] mysql01 mysql02 mysql03 [prod:children] web mysql [devel] dev-nginx01 dev-mysql01
Данный пример описывает группы хостов web, mysql, prod и devel, группа prod наследует содержимое групп web и mysql.
Задание (Task)
- атомарная операция, выполняемая на управляемом хосте, например:
apt: package: nginx state: present
Данный пример аналогичен команде
apt install nginx
**Сценарий (Play)**или Плейбук (Playbook)
- сценарий или скрипт, содержащий одну или несколько заданий на выполнение, например:
$ cat prod-playbook.yml --- - hosts: nginx tasks: - apt: package: nginx state: present - shell: whoami
Роль (Role)
- более сложная абстракция, выглядит как структура директорий и файлов, которые описывают набор дефолтных переменных, зависимостей от других ролей, может содердать содержит файлы, темплейтов и задания.
Факты (Facts)
- структура данных, которая содержит информацию о хосте, например, версию дистрибутива, IP адреса и файловые системы. Ansible забирает эту информацию с хоста, и на нее можно ссылаться в коде плейбуков и ролей.
Сбор фактов хоста занимает некоторое время, поэтому их можно кэшировать или отключить их сбор при выполнении плейбука.
-
Ответ
Модули что-то делают на хостах
Плагины расширяют функционал ансибла
-
Ответ
Представьте себе, что у вас есть полочка для книг. При этом изначально эта полочка с книгами пуста. Книги вам то приносят, то уносят, то делают в них какие-то корректировки (к примеру, мемуары или может быть черновики) и тому подобное.
Так как полочка маленькая, то вы как-то не особо задумывались о какой-либо системе классификации, а просто вставляете книги в любые пустые места.
Каждый раз когда-то вам или кому-то необходимо найти определенную книгу, возникает необходимость просматривать все книги с самого начала полочки до первой попавшейся (если нужна только одна книга) или полностью все (если нужно собрать все копии). В принципе, для одной полочки это весьма необременительно.
И нужно придумать систему классификации.
Например, можно добавлять закладки в каталог.
Поэтому вы поступаете проще, вы берете каталог, где возможно добавлять листочки. При этом каждую страницу выделяете только под одно название книги, а сами страницы располагаете в каталоге в порядке возрастания названий. Содержание этих страниц весьма просто — вы записываете в каком стеллаже, на какой полке и какой по счету является книга. Если книг несколько, то строчек в этой странице становится несколько.
Таким образом, чтобы найти одну или все нужные книги по названию, вам достаточно открыть этот каталог и быстро пролестнуть до нужной страницы, а затем пройтись по всем указанным стеллажам. При этом для упрощения, вы так же можете первые буквы названий так же индексировать. То есть добавляете наклейку на каждую первую страницу с указанной буквой (таким образом можете сразу перейти, например, к букве «Р», не пролистывая все названия до нее).
Конечно, для поддержки такой системы требуется дополнительное время, но все же оно существенно меньше, чем попытка найти вслепую книгу из тысячи (пара минут против нескольких часов и более).
-
Альтернативный ответ, ссылка на статью
-
Ответ
Причина того, что наличие большого количества индексов — это плохо, заключается в том, что это резко увеличивает объем операций записи, которые необходимо выполнить в таблице. Это происходит в нескольких разных местах. Когда происходит запись, данные сначала записываются в журнал транзакций. Когда это происходит, это регистрируется для каждого отдельного индекса, в который выполняется запись. Таким образом, для таблицы с девятью некластеризованными индексами в журнале транзакций выполняется 10 операций записи.
-
Другой ответ, более полный
- Накладные затраты при записи данных
Очевидно, что для поддержаиня какой-либо дополнительной структуры данных, либо определенной организации данных, требуется совершать дополнительные действия.
Действий не так много, накладные затраты на них небольшие. Но плохо то, что эти затраты и действия возникают при записи данных. А запись данных происходит в транзакции.
Хуже если в транзакции происходит и запись и чтение данных (контроль остатков). В этом случае индекс должен быть всегда в актуальном состоянии.
Затраты на запись или чтение в транзакции намного "дороже" внетранзакционных издержек. Дело в том, что запись может вестись строго последовательно, и время на фиксацию изменений в БД сократить достаточно сложно. Более мощное оборудование тут не всегда помогает.
Внетранзакционное же чтение данных может вполне успешно выполняться параллельно, при этом в случае увеления количества запросов на чтение данных, к примеру, вследствие роста количества пользователей, то они вполне могут решиться наращиванием аппаратных ресурсов.
- Накладные затраты на обслуживание индексов
При интенсивной записи данных в таблицу данные индексов к ней не всегда распологаются на той странице, на которой должны. Появляются "пропуски", физическая структура индексов становится неэффективной. Поэтому иногда бывает необходимо производить дефрагментацию индексов. Производительность запросов к СУБД во время дефрагментации, соответственно, падает. Есть ещё процесс полного перестроения индексов - но в современных версиях MS SQL необходимости выполнения данной операции по регламенту нет.
- Влияние индексов на размер базы
Не самое страшное последствие, но так или иначе если база весит 150-200 ГБ, то об этом надо уже задуматься. Для средней OLTP базы размер индексов, как правило, превышает объём самой базы.
Не верите? Вполне можете воспользоваться какой-либо обработкой вроде этой:
и посмотреть, сколько же в вашей базе места занимают индексы.
- Затраты на создание и поддержание актуальной статистики
Статистику в базе нужно регулярно обновлять при интенсивных операциях вставки и обновления. Это занимает вычислительные ресурсы, хоть и не влияет непосредственно на процесс.
Неактуальная статистика может привести к проблемам производительности системы.
Но это не значит, что индексы - это плохо, без них СУБД были бы бесполезны.
Плохи индексы, которые не используются.
-
Ответ
Необходимы 2 сервера: master и slave.
- На обеих сервера устанавливаем сервер MySQL одинаковой версии.
- Включаем сервер базы данных на обеих серверах.
- Настраиваем master - в
/etc/my.cnf
устанавливаем слеюущие значения:
# выбираем ID сервера, произвольное число, лучше начинать с 1 server-id = 1 # путь к бинарному логу log_bin = /var/log/mysql/mysql-bin.log # название Вашей базы данных, которая будет реплицироваться binlog_do_db = newdatabase
Перезапускаем сервер базы данных. 4. Подключаемся к master серверу, создаем пользователя и назначаем ему права для выполнения репликации.
mysql -u root -p <пароль root сервера БД> GRANT REPLICATION SLAVE ON *.* TO 'slave_user'@'%' IDENTIFIED BY 'password'; FLUSH PRIVILEGES;
- На master сервере делаем дамп базы данных c блокировкой таблиц.
mysqldump -u root -p --lock-all-tables newdatabase > newdatabase.sql
- Переносим дамп базы на slave сервер, создаем базу данных с таким же именем и импортируем базу.
CREATE DATABASE newdatabase; mysql -u root -p newdatabase < newdatabase.sql
- Настраиваем slave в
/etc/my.cnf
:
# ID Слейва, удобно выбирать следующим числом после Мастера server-id = 2 # Путь к relay логу relay-log = /var/log/mysql/mysql-relay-bin.log # Путь к bin логу на Мастере log_bin = /var/log/mysql/mysql-bin.log # База данных для репликации binlog_do_db = newdatabase
Перезапускаем сервер базы данных. 8. Запускаем репликацию на slave сервере.
CHANGE MASTER TO MASTER_HOST='10.10.0.1', MASTER_USER='slave_user', MASTER_PASSWORD='password', MASTER_LOG_FILE = 'mysql-bin.000001', MASTER_LOG_POS = 107; ##Указанные значения мы берем из настроек Мастера После этого запускаем репликацию на Слейве: START SLAVE;
- Проверяем статус репликации:
SHOW SLAVE STATUSG
- Ответ
- Оператор DROP используется для удаления структуры таблицы. После удаления индексы, ограничения и триггеры, зависящие от таблицы, также будут удалены, но функции и хранимые процедуры, которые зависят от таблицы, останутся, но станут недействительными.
- Оператор DELETE используется для удаления данных в таблице, его можно удалить с помощью условий, и все данные в таблице удаляются без условий.
- Оператор TRUNCATE используется для удаления всех данных в таблице.
-
Ответ
PostgreSQL использует концепцию ролей (roles) для управления разрешениями на доступ к базе данных.
Роль можно рассматривать как пользователя базы данных или как группу пользователей, в зависимости от того как роль настроена.
Роли могут владеть объектами базы данных (например, таблицами) и выдавать другим ролям разрешения на доступ к этим объектам, управляя тем, кто имеет доступ и к каким объектам.
Кроме того, можно предоставить одной роли членство в другой роли, таким образом одна роль может использовать привилегии других ролей.
Концепция ролей включает в себя концепцию пользователей ("users") и групп ("groups"). До версии 8.1 в PostgreSQL пользователи и группы были отдельными сущностями, но теперь есть только роли. Любая роль может использоваться в качестве пользователя, группы, и того и другого.
Почему не следует использовать утилиту mysqldump на большой активной базе данных? Какие Вы знаете альтернативы?
- Ответ
Потому что может произойти блокировка таблиц. И любые изменения данных будут ожидать полного окончания дампа. Из-за этого приложение фактически перестает работать. Поэтому во время снятия дампа нужно отключить блокировку таблиц.
Можно использовать ключ --single-transaction
, который позволит прочитать базу, и потом уже делать дамп. Это создаст корректный дамп.
--skip-lock-tables
- помогает в случаях когда у нас есть движок MYIASAM. И это позволяет избежать несогласованности данных.
-
Ответ
Хеш-таблицы — это тип структуры данных, в которой адрес или значение индекса элемента данных генерируются из хеш-функции.
Это ускоряет доступ к данным, поскольку значение индекса ведет себя как ключ к значению данных. Другими словами, в хэш-таблице хранятся пары ключ-значение, но ключ генерируется с помощью функции хеширования.
-
Ответ
Итератор - это сущность, которая позволяет упростить навигацию по некой коллекции.
Например, с помощью него можно перебрать значения в списке, применяя функцию к каждому элементу.
Генератор позволяет генерировать эти списки. Однако, это на первый взгляд. Потому что генератор сам по себе объект, и отличается он от списков селедующим:
-
Генератор — это объект, который сразу при создании не вычисляет значения всех своих элементов.
-
Он хранит в памяти только последний вычисленный элемент, правило перехода к следующему и условие, при котором выполнение прерывается.
-
Вычисление следующего значения происходит лишь при выполнении метода . Предыдущее значение при этом теряется.
next()
Тут есть пример использования
https://skillbox.ru/media/code/generatory_python_chto_eto_takoe_i_zachem_oni_nuzhny/
-
- Ответ
- Список можно изменить после создания.
- Кортеж нельзя изменить после создания.
- Список упорядочен. Он представляет собой упорядоченные последовательности объектов, как правило, одного и того же типа. Например, все имена пользователей упорядочены по дате создания: [«Seth», «Ema», «Eli»].
- У кортежа есть структура. В каждом индексе могут сосуществовать различные типы данных. Например, такая запись базы данных в памяти: (2, «Ema», «2020–04–16») # id, name, created_at*.*
-
Ответ
Декоратор позволяет добавить новую функциональность к существующей функции. Это делается следующим образом. Функция передается декоратору, а он выполняет и существующий, и дополнительный код.
Напишите функцию декоратора. В качестве аргумента он принимает функцию func. Декоратор определяет функцию log_function_called, которая вызывает func() и выполняет некоторый код print(f'{func} called.’). Затем возвращает определенную им функцию:
def logging(func): def log_function_called(): print(f'{func} called.') func() return log_function_called
Напишем другие функции, к которым добавим декоратор (потом, не сейчас):
def my_name(): print('chris') def friends_name(): print('naruto') my_name() friends_name() #=> chris #=> naruto
Теперь добавим декоратор к ним обоим.
@logging def my_name(): print('chris') @logging def friends_name(): print('naruto') my_name() friends_name() #=> <function my_name at 0x10fca5a60> called. #=> chris #=> <function friends_name at 0x10fca5f28> called. #=> naruto
Теперь легко добавить ведение журнала в любую функцию, которую мы пишем. Достаточно написать перед ней @logging.
- Ответ
-
Ответ
Это система управления кластерами контейнеров linux.
Кубер может запускать и управлять контейнерами на большом количестве хостов. А также имеет возможность это всё размещать и реплицировать.
-
Ответ
- Масштабирование и запуск контейнеров на большом количестве хостов
- Балансировка контейнеров между ними.
Также у кубера есть высокоуровневый API для группирования, размещения и балансирования контейнеров.
-
Какие задачи он решает
- Автоматизация инфраструктуры. Он развертывает приложения, откатывает.
- Масштабирование приложения
- Supervision - контролер, который мониторит состояние кластера. И сравнивает его состояние с требованиями, которые ему описали.
- Service discovery - позволяет сервисы находить в автоматическом режиме.
- Он решает вопросы, которые связаны с логгированием.
- Решает вопросы с мониторингом и сбором метрик
- CI\CD
- Уменьшает vendor lock-in. Мы меньше зависимы от оборудования и провайдеров. Мы тут общаемся с апи кубернетеса. Он как черный ящик, которому мы говорим что делать. И он делает.
-
Ответ
Локальный кластер для знакомства с кубером, или для проверки каких-либо вещей.
-
Ответ
Например, у нас есть три машины. На них запущены контейнеры.
И вдруг одна из машин встала с запущенными контейнерами. Или нужно машину перезапустить.
И контейнеры нужно переносить.
В итоге нужно будет решать проблемы
- Контейнеры могут быть связаны, и они должны быть на одной ноде. Значит и перенести нужно на другую ноду их, сохранив эту связанность. Связанность - это использование общих данных. Или активное взаимодействие между собой.
- Контейнеры не могут “поместиться” на одном узле, и нужно думать а куда вот эти перевести и распределить
- При возвращении ноды в строй придётся возвращать все контейнеры. Снова нужно делать те же манипуляции.
-
Ответ
Deployment - ресурс Kubernetes предназнваенный для развертывания приложения без сохранения состояния. При использовании PVC все реплики будут использовать один и тот же том, и ни один из них не будет иметь собственного состояния.
StatefulSet - поддерживают состояние приложений за пределами жизненного цикла отдельных модулей pod, например для хранилища. Используется для приложений с отслеживанием состояния, каждая реплика модуля будет иметь собственное состояние и будет использовать свой собственный том.
Также statefulset не перебросится на другую ноду. Есть диск, который привязан. И при вымирании ноды, он не переедет в отличие от деплоймента.
Sigterm statefulset может ждать какое-то время.
Statefulset для баз используется потому что там есть темплейт pvc
-
Ответ
Deployment упрощает обновление модулей до какой-то определенной или новой версии. Допустим, у нас есть набор подов из ReplicaSet-A, чтобы выкатить новую версию нужно создать Replicaset-B. При этом нужно уменьшить Replicaset-A и увеличить Replicaset-B на один шаг несколько раз. То есть выполнить последовательное обновление.
А deployment может это делать автоматически. И просто добавляет еще одну абстракцию.
Иными словами - deployment просто выполняет непрерывное обновление с использованием наборов реплик.
-
Ответ
Kubelet использует Liveness пробу для проверки, когда перезапустить контейнер. Например, Liveness проба должна поймать блокировку, когда приложение запущено, но не может ничего сделать. В этом случае перезапуск приложения может помочь сделать приложение доступным, несмотря на баги.
Kubelet использует Readiness пробы, чтобы узнать, готов ли контейнер принимать траффик. Pod считается готовым, когда все его контейнеры готовы.
Одно из применений такого сигнала - контроль, какие Pod будут использованы в качестве бекенда для сервиса. Пока Pod не в статусе ready, он будет исключен из балансировщиков нагрузки сервиса.
Kubelet использует Startup пробы, чтобы понять, когда приложение в контейнере было запущено. Если проба настроена, он блокирует Liveness и Readiness проверки, до того как проба становится успешной, и проверяет, что эта проба не мешает запуску приложения. Это может быть использовано для проверки работоспособности медленно стартующих контейнеров, чтобы избежать убийства kubelet'ом прежде, чем они будут запущены.
-
Ответ попроще
Начну издалека. Для чего нужны такие механизмы? Дело в том, что запущенный под это не значит запущенное и развернутое приложение. Какая-нибудь джава может по пять минут подниматься.
Соответственно, нам нужно убедиться в том, что приложение запущено, и что на под можно пускать трафикreadinessProbe - проверка готовности контейнера. При помощи описанных условий каких-то.
-
Пример
readinessProbe: # Проверка готовности контейнера httpGet: # делаем гет запрос на 80 порт path: / port: 80 periodSeconds: 2 # периодичнось опроса failureThreshold: 3 # сколько допустимо ошибок successThreshhold: 1 # сколько успешных попыток должно быть чтоб под считался готовым к работе timeoutSeconds: 1 #таймаут
livenessProbe - предназначена для отслеживания жизнедеятельности контейнера. Иногда приложение может не работать. Хотя контейнер вроде как крутится. Но приложение не работает или работает плохо.
У него плюс минус те же параметры, что у readlinessProde, но у нее есть параметр
initialDelaySeconds
- который определяет через сколько секунд нужно выполнять liveness проверки после запуска контейнера. Также ее стоит сразу выставить на значение 10. Чтобы сразу не было ошибок о якобы нерабочем поде когда он только-только запускается.Штука опасная. Может вернуть ошибочно что под недоступен. И кубер пометит под как нерабочий. И это может приводить к постоянному пересозданию подов.
Некоторые советуют эту пробу вообще не юзать.
-
-
Ответ
Это контроллер приложения, который позволяет упаковать, развернуть и управлять приложением кубернетеса. Они расширяют функционал апи куба, и автоматически настраивают, создают экземпляры приложений
-
Ответ
Это физическая или виртуальная машина, которая является частью кластера. Узел может быть мастером и воркером.
Мастер нужен для размещения управляющих и координирующих элементов в кластер.
Воркер предназначены для рабочей нагрузки. Подики и приложения Как правило отдельные машины на каждое. В миникубе и для мастера, и для воркера одна и та же машина.
-
Ответ
Мастер ноды и воркер ноды
В отказоустойчивом кластере должно быть 3 мастер ноды
А воркер нод любое количество - зависит от нагрузки, которую хотим выполнять
kubectl - внешний клиент, который обращается к мастер ноде
Мастер-нода
API сервер
С ним взаимодействуют все компоненты. Он является центральным узлом. Он принимает и обрабатывает запросы по restapi(json и yaml)
Conroller manager
Это группа служб, которая следит за состоянием кластера. И которая вносит изменения для приведения фактического состояния кластера к желаеому. Мы говорим куберу что мы хотим видеть в конечном статусе.
Kube scheduler
Распределяет рабочую нагрузку по доступным узлам. Распределение выполняется на основании настроек, и на основании текущего использования ресурсов.
Он планирует на каком узле запустить то или иное приложение
etcd
Распределенное хранилище. Ключ-значение. Хранит инфу о состоянии кластера.
Воркер-нода
kublet
Служба, которая опрашивает апи сервер на предмет того, какие поды предназначены узлу. (На котором служба находится). И запускает, удаляет их через container runtime engine (На картинке докер. Может быть что угодно.)
Также информирует api сервер о статусе работающих подов на узле.
kube proxy
Компонент, управляющий сетевыми настройками узла
Container runtime (docker) - компонент, взаимодействующий с контейнером.
-
Ответ
Запрос на запуск одного или более контейнеров на одном узле.
Также под это совокупность контейнеров, которые запускаются в ответ на запрос.
Эти контейнеры разделяют доступ к ресурсам типа томов хранилища, и сетевой стек. И каждый под имеет свой собственный внутренний апи
-
Ответ
Под это минимальная единица куба. В котором есть контейнеры.
-
Ответ
Нет. Поскольку есть поле узел. И шедулер назначает какому поду куда ехать
-
Ответ
Следующий уровень абстракции над подами.
Она запускает определенное количество подов и гарантирует поддержание данного количества подов. И эти поды могут быть запущены на разных узлах кластера.
В спецификации указываем количество реплик.
-
Шаблон репликасета
В этом случае будет такой вывод. Название будет состоять из основной части и из случайным образом сгенерированной.
NAME READY STATUS RESTARTS AGE my-replicaset-28gs2 1/1 Running 0 7m1s my-replicaset-qg47c 1/1 Running 0 7m1s
apiVersion: apps/v1 kind: ReplicaSet metadata: name: my-replicaset spec: replicas: 2 # количество контейнеров selector: matchLabels: app: my-app # селектор для поиска своих подов. Так репликасет понимает какой под относится к нему, а какие не к нему template: # шаблон этого пода. Две реплики по шаблону тут будут metadata: labels: app: my-app spec: containers: - image: nginx:1.12 name: nginx ports: - containerPort: 80
И вывод такой реплики:
swfuse@swfuse:~/kuber_manifests$ kubectl get replicasets -o wide NAME DESIRED CURRENT READY AGE CONTAINERS IMAGES SELECTOR my-replicaset 2 2 2 10m nginx nginx:1.12 app=my-app
Видим инфу о копиях в desired
Сколько сейчас запущено в current
Сколько сейчас готово в ready
Возраст в age
Контейнеры
Образ
И метки. По каким меткам репликасет ищет поды.
ВАЖНО При обновлении файла, и образа например - обновится только репликасет. А вот поды будут со старыми значениями пока их не удалю.
Если я хочу чтоб контейнеры менялись, мне нужен деплоймент.
Репликасет следит только за количеством контейнеров.
-
Ответ
Переводится как развертывание
Это механизм обновления подов с помощью репликасетов
Он очень похож на репликасет. Но позволяет управляемо обновлять образами подов.
-
Шаблон деплоймента
apiVersion: apps/v1 kind: Deployment metadata: name: my-deployment spec: replicas: 2 # количество контейнеров strategy: type: Recreate # стратегия обновления selector: # селектор для поиска своих подов matchLabels: app: my-app template: # шаблон пода metadata: labels: app: my-app spec: containers: - name: nginx image: nginx:1.12 ports: - containerPort: 80
Recreate - стратегия пересоздания при обновлении. В остальном то же самое, что и репликасет.
При модификации деплоймента репликасет удаляется и создается новый с новыми настройками
RollingUpdate - он постепенный. То есть поды в него постепенно начинают переезжать(удаляются в одном, в новом репликасете создаются). И это регулируется параметрами maxSurge, maxUnavailable. Лимит превышения и недоступности соотвесттвенно. Также репликасеты не удаляются, они будут пустыми. И репликасет это история изменений.
Если создать деплоймент, то можно увидеть следующее
swfuse@swfuse:~/kuber_manifests$ kubectl get pods NAME READY STATUS RESTARTS AGE my-deployment-c4c8f45fc-ltckj 1/1 Running 0 4s my-deployment-c4c8f45fc-qvp6w 1/1 Running 0 4s swfuse@swfuse:~/kuber_manifests$ kubectl get replicasets NAME DESIRED CURRENT READY AGE my-deployment-c4c8f45fc 2 2 2 17s
Создается репликасет с названием деплоймента+уникальныйайди
И поды создаются из названиядеплоймента+уникальныйайдирепликасет+уникальныйайди
Когда создается деплоймент, он внутри себя создает репликасет.
Чтобы обратиться к айпишникам внутри кластера можно попробовать сделать следующее:
kubectl run --rm -it --image amouat/network-utils test bash
-
Ответ
Service - обеспечивает сетевой доступ к поду снаружи.
Это тип ресурса, который заставляет прокси настраиваться на пересылку запросов на набор контейнеров.
У каждого пода айпишник постоянно меняется. И сервис это абстракция, которая предоставляет сетевой доступ к приложению, который работает на группе подов. А также балансирует запросы к этим подам.
Отличается от всех других тем, что не предоставляет свой айпишник
- Ответ
- Без селектора
- ClusterIP - по умолчанию. Сервису выделяется отдельный айпишник внутри кластера. Доступ можно сделать с помощью проксировани.
- NodePort - выделяется айпи внутри кластера, и на каждом узле выделяется порт из диапазона 30000 - 32767. То есть указываем на каком порте узлов это работает
- LoadBalancer - использует внешний айпи адрес. И он уже перенаправляет трафик на нод порт и кластер айпи, которые создаются автоматически. Минус в том, что внешний айпи адрес стоит денег.
- ExternalName - перенаправление трафика. Через cname в днс кластере.
-
Ответ
Это не тип сервиса, но это абстракция связана с предоставлением доступа к сервисам извне.
Чем-то похоже на нжинкс. Который по локейшнам перенаправляет что-то куда-то.
-
Ответ
Одноразовая задача. Создает один или несколько подов, и ожидает их успешного завершения.
Если что-то завершается с ошибкой, то джоб бдует запускать новые копии, пока количество успешных выполнений не будет равно заданному.
Типовые примеры:
- Запуск тестов
- Применение миграций базы данных
- Выполнение одноразовых скриптов
-
Пример джобы
Успешное выполнение сколько раз нужно чтоб выполнились задачи
Параллельные запуски - контейнеры будут подниматься, одновременно выполняться. Если 1, то друг за дружкой выполняться
Backofflimit - максимальное количество попыток. Джоб после этого не будет пытаться что-то делать. И новых контейнеров не создаёт.
activeDeadlineSecond - таймлайны для джобы. Больше ничего создаваться не будет.
ttlSecondsAfterFinished - максимальное время жизни завершенного джоба. Нужна для того, чтобы человек мог успеть посмотреть результат. В контейнере логи глянуть например.
restartPolicy - регулируем перезапускать или нет. Но самому контейнеру за этим следить не надо. Поэтому Never
-
Ответ
Абстракция, которая автоматически создаёт поды по расписанию. Расписание задаётся в крон-формате.
Применение:
- Рассылки писем, уведомлений
- Бэкапы
- Выполнение задач в менее нагруженное время
-
Пример кронджобы
-
Ответ
- v1
- v2beta1
- v3aplha1
- extensions/v1/beta1
Alpha-версии - отключены по умолчанию. Могут содержать баги. Поддержка может быть прекращена в любое время. И совместоимость с будущими не гарантируется. Не рекомендуется использовать в продакшене.
Beta-версии включены по умолчанию. Хорошо протестированы. Поддержка не будет прекращена, но может быть разница в семантике. Если она меняется - будет инструкция по миграции. Не рекомендуется использовать в проде. Но можно в dev для тестирования фич.
Стабильные версии API - готовы для продакшена. Совместимы с будущими версиями.
-
Ответ
Это пространство имен. Пространство имен - это способ разделения ресурсов в кластере между пользователями или проектами.
- Все имена ресурсов должны быть уникальными в пределах одного и того же пространства имён.
- Каждый ресурс может быть только в одном пространстве имен
- Пространства имен не могут быть вложенными.
По умолчанию существует три пространства имен
- Default - пространство имён по умолчанию для объектов. Без какого-либо иного пространства имён
- kube-system - пространство имён для системных служебных объектов кубернетеса.
- kube-public - создаваемое автоматически пространство имён, которое доступно для чтения пользователями. Данное пространство имён обычно используется кластером, если ресурсы должны быть общедоступными.
-
Ответ
Volume - это абстракция файлового хранилища.
Решает следующие основные проблемы:
- Файловая ситема контейнера существует только до его удаления или перезапуска
- Некоторым контейнерам нужно общее пространство для хранения файлов, или для обращения к конфигурационным файлам.
- Изолирует приложение от технологий хранения данных
Живет только с подом
-
Ответ
emptyDir
Каталог, который создается до пода, и и живет пока под не будет удален. Все контейнеры в нем могут читать данные из этого volume.
В качестве системы хранения - используется файловая система узла.
hostPath
В hostpath папка на узле уже существует, и подключается к подам. Данные не пропадают после удаления пода.
В случае с emptyDir создается папка, подмонтируется. Если под падает - данные пропадают.
Используется для случаев, когда под отслеживает состояние узла. Предоставляется доступ к системным каталогам
Также там есть ключи DirectoryOrCreate и FileOrCreate - они нужны для задачи кубернетесу проверить наличие папки, и потом обращение к файлу.
=
-
Ответ
API объект, который используется для хранение неконфиценциальных параметров типа ключ значение.
Это этакое хранилище параметров
Поды могут использовать значения оттуда несколькими способами:
- Конф файлы, подключаемые как volumes
- Через Переменные окружения
- Через Параметры запуска контейнеров
-
Пример использования
В volumes на уровня деплоймента в спецификации указывается конфиг мап, и имя конфиг мапа.
А в спеке контейнера указываем имя уже этого вольюма
-
Ответ
Объект, который содержит конфиденциально важное значение. (пароль, токен, ключ).
Хранение важных параметров в виде секретов более безопасно и гибко, чем включение их в конфигурацию пода или в образы контейнеров.
Для использования секрета поду необходимо указать его.
Секрет может использоваться следующими способами:
- Файл подключенный через volume контейнера.
- Значение переменной окружения
- kubelet использует секреты для подключения к апи серверу, для загрзки образов из докер регистри
-
Ответ
PersistentVolume (PV) - такой же ресурс кластера, как и узел. Он предоставляет не вычислительные русерсы, а тома дисковые. Примеры: NFS, RBD, CephFS и другие. В рамках PV впоследствии можно выделять подам место для хранения данных.
PersistenceVolumeClaim(PVC) - запрос к PV на выделение места под хранение данных. Это аналог создания пода на узле. Поды могут запрашивать определенные ресурсы узла, то же делает и PVC. Сколько ему места нужно, типы доступа. Основные параметры запроса:
- Объем места
- Тип доступа
Типы доступа у PVC:
- ReadWriteOnce - том может быть смонтирован на чтение и запись к одному поду
- ReadOnlyMany - том может быть смонтирован на много подов в режиме реального времени
- ReadWriteMany - том может быть смонтирован к множеству подов в режиме чтения и записи
-
Схема статической и динамической
Статическое.
Сторадж это хранилище. Диск, облачный ресурс.
Для того, чтобы к поду подмонтировалась часть пространства, администратор должен создать набор PersistanceVolume. Допустим диск на 500гб, админ нарезает его с помощью PersistanceVolume на блоки. По 10, 20, 50 гб. И так далее. Короче набор таких PV.
Когда поду нужно место PVC делает заявку о том, что ему нужен диск определенного размера с определенным типом доступа. И кубер подбирает подходящие PV. И не всегда запрос совпадает с тем, что есть. Допустим, у нас нарезано по 100гб PV, а PVC запрашивает на 5 гб, то кубер отдаст на 100. Других вариантов нету просто. Нужно оптимиально их разбивать.
Эту проблему решает динамическая схема создания.
Динамическое
Здесь плагин сам формируует PV при наличии запроса на него.
Админ создает сторадж класс, где описывается сторадж, который подключил к кластеру. Ну и с помощью плагина в ответ на запрос pvc кубер создаст pv нужного размера, и предоставит для пода.
-
Ответ
Это тип балансировщика.
В спецификации пода указываются метки узлов (nodeSelector), на которых мы хотим его запустить или указывается определенный узел (nodeName)
Например
# Данный под будет назначен на узел, где есть специфический тип диска nodeSelector: disktype: ssd # можем указать название узла куда под должен быть направлен nodeName: kube-01
-
Ответ
У него широкое распространение. Нужен для сбора логов по разным нодам. Логи как-то надо собирать. Сертификаты нод. Смотреть через демонсет можно такие штуки
-
Ответ
Можно настроить список блокировок (taints). Или как зараза. И если в спецификации пода не указана сопротивляемость к блокировкам(tolerations), то он не сможет попасть на определенный узел.
То есть мы говорим поду где НЕ запускаться.
Виды блокировок:
NoSchedule
Не размещать на узле без соответсвующих tolerations
PreferNoSchedule
Предпочитать не размещать на узле поды без соответствующих tolerations, но не требовать этого.
NoExecute
Не размещать на узле поды без соответствующих tolerations. Все работающие на узле поды
-
Ответ
В спецификации пода мы можем указать плановое потребление ресурсов(requests) и лимиты использования ресурсов(limits). Нужный узел подбирается автоматически с учетом текущей нагрузки.
cpu: 50m - m -milicpu.
limits - контейнер будет убить. Непредсказумая настройкая.
Есть QoS классы подов
- Guaranteed (limits = requests) //Под не может превысить свои ресурсы. Сколько запросил столько и получил
- Burstable (limits > requests) кто-то запросил 50 цпу, но иногда превышает его. И часть контейнеров при нагрузке будут переезжать
- BestEffort (не указаны limits и requests) - не указываем лимиты реквесты. Первыми будут переезжать эти
Можно увидеть через describe пода
-
Ответ
В спецификации пода указываются требования и пожелания к узлам, а также к уже существующим подам.
Как нод селектор. Но можно заказать условия. Типа метка может быть определенных типов, перечисленных.
-
Ответ
Пакетный менеджер для кубера. Шаблонизатор для управления
Пакет в helm это набор yml, архив с yml
-
Ответ
В общем случае создастся количество подов с определенным заданым количеством. Потом будут уходить “старые" поды. Это контролируется политикой обновлений.
И когда хелсчеки прошли по новым.
- Ответ
-
git merge
- выполняет слияние коммитов из одной ветки в другую. В этом процессе изменяется только целевая ветка. История исходных веток остается неизменной.Преимущества:
- Простота,
- Сохраняет полную историю и хронологический порядок,
- Поддерживает контекст ветки.
Недостатки:
- История коммитов может быть заполнена (загрязнена) множеством коммитов,
- Отладка с использованием git bisect может стать сложнее.
-
git rebase
- сжимает все изменения в один патч. Затем интегрирует патч в целевую ветку. В отличии от merge, rebase перезаписывает историю, потому что она передаётся завершенную работу из одной ветки в другую. В процессе устраняется нежелательная история.Преимущества:
- Упрощает потенциально сложную историю,
- Упрощение манипуляций с единственным коммитом,
- Избежание слияния коммитов в занятых репозиториях и ветках,
- Очищает промежуточные коммиты, делая их одним коммитом, что полезно для DevOps команд.
Недостатки:
- Сжатие фич до нескольких коммитов может скрыть контекст
- Перемещение публичных репозиториев может быть опасным при работе в команде,
- Появляется больше работы,
- Для восстановления с удаленными ветками требуется принудительный пуш. Это приводит к обновлению всех веток, имеющих одно и то же имя, как локально, так и удаленно.
-
-
Ответ
Предназначение этих команд git – интеграция изменений из одной ветки в другую, но делают они это по-разному.
Предположим, у вас сложилась такая ситуация:
A <- B <- C [master] ^ \ D <- E [branch]
После обычного мержа репозиторий будет выглядеть так:
A <- B <- C ^ ^ \ \ D <- E <- F
А после
git rebase
– так:A <- B <- C <- D <- E
Rebase указывает на то, что коммиты нужно буквально перенести со старого места на новое.
Что выбрать?
- Если вы сомневаетесь, то используйте обычное слияние.
- Выбор между merge и rebase обусловлен тем, какой вы хотите видеть историю коммитов: линейной или ветвящейся.
Учитывайте следующие факторы:
- Если ветка, в которую вы хотите внести изменения доступна для других разработчиков (например, в open source проекте), не используйте rebase. Эта команда удаляет ветку целиком и приводит к рассинхронизации копий репозиториев.
- Представляет ли исходная ветка ценность? Некоторые команды работают по принципу «одна функция – одна ветка», при этом ветка идентифицирует последовательность коммитов. В модели «один разработчик – одна ветка» в этом нет особой необходимости, так как автор коммита известен.
- Не захотите ли вы вдруг отменить слияние? Возврат rebase значительно затруднен по сравнению с обычным слиянием, а иногда даже невозможен.
-
Ответ
При использовании
pull
, git пытается сделать всё за вас. Он сливает любые внесённые коммиты в ветку, в которой вы сейчас работаете.Команда
pull
автоматически сливает коммиты, не давая вам сначала просмотреть их. Если вы не пристально следите за ветками, выполнение этой команды может привести к частым конфликтам.При использовании
fetch
, git собирает все коммиты из целевой ветки, которых нет в текущей ветке, и сохраняет их в локальном репозитории. Однако он не сливает их в текущую ветку -
Краткий ответ
git pull — это, по сути, команда git fetch, после которой сразу же следует git merge.
Команда git fetch получает изменения с сервера и сохраняет их в каталог refs/remotes/. Это действие (fetch) не влияет на локальные ветки и текущие изменения, просто изменения с удаленного сервера скачиваются в директорию локального репозитария.
-
Ответ
Команда
git cherry-pick
используется для перенесения отдельных коммитов из одного места репозитория в другое, обычно между ветками разработки и обслуживания. Этот механизм отличается от привычных команд git merge и git rebase, которые переносят коммиты целыми цепочками.
-
Ответ
Работа через форки принципиально отличается от других популярных методов организации командной разработки. Вместо того чтобы использовать один серверный репозиторий в качестве центральной кодовой базы, здесь каждый разработчик получает свой собственный репозиторий. Чаще всего эта модель применяется в общедоступных open source проектах.
Основное преимущество forking workflow заключается в том, что все изменения вносятся без загрязнения истории проекта. Разработчики делают push в собственные репозитории, а доступ к центральному есть только у менеджера.
Когда обновление готово к интеграции, программист делает pull-запрос в главный репозиторий, а менеджер одобряет и вносит его.
-
Ответ
Модель gitflow использует две параллельные «долгие» ветки для хранения истории проекта: master и develop.
- Master – это полностью готовое к релизу состояние со всеми пройденными тестами.
- Hotfix – ветки обслуживания, или хотфиксы, которые используются для быстрых патчей. Они очень похожи на feature, но вместо develop-ветки базируются на master.
- Develop – ветка, в которой объединяются и тестируются все отдельные разработки. После прохождения проверок они отправляются в master.
- Feature – отдельная ветка для каждой новой функциональности, изменения из которой отправляются в develop.
- Master – это полностью готовое к релизу состояние со всеми пройденными тестами.
Симметричное ассиметричное шифрование
ssh
Машина принимает подключение по 22му порту
Клиент подключается к серверу. Клиентов большое разнообразие
По подключению используются два ключа.
Приватный ключ и публичный ключ.
Проще публичный ключ представить в виде замка. Я могу его опубликовать.
А приватный в виде ключа. Он только мне передается.
Шифруем публичным ключом. И открыть может только владелец приватного.