最終更新日 2025年10月17日

Contents
- はじめに
- 第1章:361 High Availability Cluster Management(高可用性クラスタ管理)
- 第2章:361-2 Load Balanced Clusters(ロードバランスクラスタ)
- 第3章:361-3 Failover Clusters(フェイルオーバークラスタ)
- 第4章:362 High Availability Cluster Storage(高可用性クラスタストレージ)
- 第5章:363 High Availability Distributed Storage(分散ストレージ)
- 第6章:364 Single Node High Availability(単一ノード高可用性)
- その他補足情報
はじめに
LPIC-3 306(High Availability and Storage Clusters)は、高可用性クラスタとストレージ冗長化技術の最上級資格です。
DRBD、GlusterFS、Ceph、Pacemaker、Corosync などの構成管理を体系的に理解していなければ合格は難しく、「どの技術がどの章で出題されるのか」「どのコマンドを覚えればよいのか」を明確に整理することが重要です。
本記事では、LPIC-3 306 Version 3.0 の最新試験範囲に完全対応した全6章・約500用語を紹介します。
スポンサーリンク第1章:361 High Availability Cluster Management(高可用性クラスタ管理)
暗記のポイントは以下の通りです。
- 「Pacemaker+Corosync構成」「STONITH」「Quorum」は最重要キーワード。
crm_mon
、crm_resource
、crm_simulate
を実際に叩いて挙動を覚える。- Order / Colocation / Location constraint の違いを説明できるように整理。
- Split-brain対策(STONITH・quorum維持)とフェイルオーバー制御が理解の軸。
用語 | 意味 | 主な使い方や構成要素 | 試験でのポイント |
---|---|---|---|
High Availability (HA) | 高可用性。サービス停止を最小化する設計手法 | 冗長化、フェイルオーバー、監視、クラスタ構成 | クラスタの目的とHA設計の基本理解 |
Cluster | 複数ノードをまとめて1つのサービス単位として動作させる仕組み | 共有ストレージ、通信リンク、リソース管理 | Active-Active / Active-Passiveの違い |
Node | クラスタを構成する個々のサーバ | メンバーとして参加、フェンシング対象にもなる | ノードの役割とフェイルオーバー関係を理解 |
Pacemaker | 高可用性クラスタを制御するコアコンポーネント | CIB(XML設定), CRM管理, Corosync連携 | Pacemakerの役割と主要設定コマンド |
Corosync | クラスタ通信とメンバーシップ管理を担当 | 心拍監視(heartbeat)、トークンベース通信 | Pacemakerと併用される標準クラスタ基盤 |
CIB (Cluster Information Base) | クラスタ構成情報を格納するXMLデータベース | cibadmin , crm configure で編集可能 | 設定変更はトランザクション的に反映される |
crm_mon | クラスタ状態をモニタリングするコマンド | ノード状態、リソース、フェイルオーバー確認 | 状態監視コマンドの出力形式を理解 |
crmsh | Pacemaker設定用シェル | crm configure , crm resource など | 設定変更操作と出力例を把握 |
Resource | クラスタが管理するサービスやデバイス | IPアドレス、FSマウント、サービスなど | リソース依存関係の設定が重要 |
Resource Agent | リソースの起動/停止/監視を行うスクリプト | OCF, LSB, Systemdベースなど | OCF(Resource Agent)仕様を理解 |
OCF | Open Cluster Framework | /usr/lib/ocf/resource.d/ に格納 | OCF標準の構造(start/stop/monitor)を暗記 |
STONITH | Shoot The Other Node In The Head、ノード強制停止機構 | フェンシングデバイス(IPMI, iLO等) | Split-Brain防止に必須。無効化は危険 |
Split Brain | クラスタ通信が断絶し、双方がマスターになる状態 | STONITH設定・Quorum設計で防止 | 対策方法(フェンシング・クォーラム)理解 |
Quorum | 過半数ノードが合意している状態を表す指標 | expected-votes , two_node 設定など | Quorum loss時の動作を理解 |
Fencing | ノードを強制的に隔離または停止させる手段 | Power fencing, Storage fencing | STONITHとの違いを明確に |
Heartbeat | クラスタノード間の生存確認信号 | UDPマルチキャストまたはユニキャスト通信 | 心拍監視間隔・タイムアウト設定理解 |
Failover | 障害発生時にサービスを別ノードへ移行 | 自動/手動での制御が可能 | フェイルオーバー発生条件と動作確認 |
Failback | 障害復旧後にサービスを元ノードへ戻す | 自動/手動設定可能 | 自動フェイルバック設定の注意点 |
Cluster Stack | クラスタの構成層(通信・管理・リソース) | Corosync + Pacemaker + Resource Agent | 各レイヤの役割を区別して覚える |
HA Policy | フェイルオーバー動作や依存性を定義 | order, colocation, constraints | Constraint設定の優先度理解 |
Constraint | リソースの動作条件や優先度を定義 | crm configure order 等で設定 | colocation/orderの違いを暗記 |
Order Constraint | 起動順序の制御 | 例:FS → IP → サービス | リソース依存の順序制御問題に頻出 |
Colocation Constraint | 同一ノード上で動作する依存関係を定義 | 例:ApacheとIPを同一ノードに固定 | colocation vs orderの違いを理解 |
Location Constraint | リソース配置を制御するルール | node属性・スコアによる重み付け | prefer , avoid の動作理解 |
Cluster Property | 全体設定値(stonith-enabled, no-quorum-policy等) | crm configure property で設定 | no-quorum-policyの効果を理解 |
no-quorum-policy | クォーラム喪失時の動作 | stop / freeze / ignore / suicide | defaultはstop。変更例を理解 |
Maintenance Mode | メンテナンス時に自動制御を一時停止 | crm configure property maintenance-mode=true | 障害試験や保守時に使用 |
Resource Stickiness | リソースを現ノードに残す度合いを定義 | 正数で優先維持、負数で移動促進 | リソース移動制御の細かい調整に出題 |
Score | 各ノードに対する優先度スコア | location制約で使用 | 負スコア=禁止設定の意味を理解 |
Ticket | Geoクラスタ等で使われるトークン | DRシナリオなどで権限を制御 | Geoクラスタ構成の理解に出題 |
Geo Cluster | 地理的に離れたクラスタ間の同期 | booth, ticketを用いた制御 | DR構成と標準クラスタの違い |
Booth | Geoクラスタ管理デーモン | Ticket配布・ノード協調 | booth動作と設定の概要を理解 |
Cluster Rejoin | 障害復旧後にノード再参加 | crm node online | 再参加時の状態遷移を理解 |
crm_report | クラスタ診断ログ収集ツール | トラブル時の状況再現に使用 | 解析ツールとして頻出 |
cibadmin | CIBを直接操作する低レベルコマンド | XML操作、差分出力 | 直接編集の危険性と用途理解 |
pcs | Pacemaker/Corosync統合管理ツール(RedHat系) | pcs cluster setup , pcs status | crmshとの違いと使い分け理解 |
Two-Node Cluster | 2台構成クラスタ。Quorumがないため特別設計必要 | stonith+quorum設定を適切に行う | Split-brainリスクと対策 |
Watchdog | ハードウェア監視機構 | /dev/watchdog, systemd watchdog | ノードフェンシング補助機構として理解 |
Corosync.conf | クラスタ通信設定ファイル | totemセクション、nodelist、transport | ファイル構造と主要パラメータを暗記 |
ring_id | Corosync内の通信識別子 | multi-ring構成時に使用 | 複数ネットワーク利用時の冗長性理解 |
token | Corosyncトークン通信のタイムアウト設定 | デフォルト10000ms程度 | 通信断検知と再選出の挙動理解 |
votequorum | クォーラム管理モジュール | expected_votes設定 | ノード数減少時の影響を理解 |
totem | Corosync通信モジュール | トークンリングベース通信 | UDP/マルチキャスト構成と冗長性理解 |
CMAN | 旧RedHatクラスタマネージャ | corosync/pacemakerに統合済 | 現行では非推奨である点を覚える |
DLM | Distributed Lock Manager | GFS2/OCFS2等と連携 | クラスタFSでのロック管理理解 |
quorumd | 外部クォーラムデーモン | 仲介ノードでvote提供 | witnessノードとの違いを理解 |
Witness Node | 仲裁ノード。2ノード構成で過半数維持に利用 | 軽量ノードとして動作 | quorum維持に重要な概念 |
Cluster Logging | /var/log/pacemaker.log 等 | PCMK_logfile , syslog設定 | 障害時のログ解析に頻出 |
Resource Fail Count | リソース失敗回数カウンタ | 自動再起動制御 | crm resource cleanup の必要性 |
Resource Recovery | フェイルオーバー後のリカバリ手順 | 自動再起動/ノード除外 | Recoveryポリシーの違いを理解 |
node attribute | ノード特性(region, typeなど) | location制約に利用 | 属性スコア設定問題に頻出 |
crm_simulate | フェイルオーバー動作を事前検証 | シナリオ確認に利用 | 実行計画の検証手段として出題 |
cluster shell | crmshの対話シェル | 自動補完、config編集 | CLI運用スキルが問われる |
resource defaults | デフォルト動作設定 | migration-threshold, stickiness | 設定適用範囲の理解 |
migration-threshold | フェイルオーバー発生までの許容失敗数 | デフォルト3 | 数値調整とリソース安定性理解 |
monitoring interval | リソース監視間隔 | ms単位で設定 | 短すぎると誤検知、長すぎると遅延 |
fencing topology | フェンシング優先順位構成 | 複数デバイス併用設定 | 実運用向け設計として出題 |
cluster redundancy | 冗長性設計の考え方 | 多重通信経路、二重電源等 | 設計問題として問われる |
load distribution | 負荷分散設計 | Active-Active構成で利用 | サービスレベルの可用性指標理解 |
failover domain | 特定ノードへの優先割当 | 旧Heartbeat構成に多い概念 | Pacemakerではlocation制約に相当 |
standby node | 待機ノード | フェイルオーバー対象 | 状態遷移の確認問題に出やすい |
cluster startup | クラスタ起動シーケンス | corosync → pacemaker順 | 起動順序問題で頻出 |
corosync-cfgtool | corosync設定確認ツール | corosync-cfgtool -s | トークン/リング状態確認 |
crm_node | ノード状態確認ツール | crm_node -l , -p | ノードID確認コマンドとして出題 |
cluster resource move | リソース手動移動 | crm resource move | トラブル時の一時対応で使用 |
pacemaker_remote | リモートノード統合機能 | SSHを利用しクラスタ外ノードを管理 | 分散管理で出題あり |
watchdog timeout | ハードウェア監視間隔 | BIOS設定・OS設定両方 | 値設定の意味を理解 |
HA cluster log level | ログ出力レベル | PCMK_logpriority設定 | デバッグ時の設定例を覚える |
fencing delay | フェンシング遅延設定 | 同時実行防止目的 | race condition防止の仕組み |
quorum policy | クォーラム関連設定まとめ | no-quorum-policy等 | 複数設定値の意味を暗記 |
第2章:361-2 Load Balanced Clusters(ロードバランスクラスタ)
暗記のポイントは以下の通りです。
- LVS・IPVS・keepalived・HAProxy の4要素を区別して説明できるように。
- VRRPの
priority
/preempt
/advert interval
の意味を暗記。 - HAProxyの
frontend
/backend
構造とbalance
アルゴリズムを押さえる。 - TCP(L4) と HTTP(L7) のモード切替、
option redispatch
など設定構文の正確さが重要。
用語 | 意味 | 主な使い方や構成要素 | 試験でのポイント |
---|---|---|---|
Load Balancing | 複数ノードで負荷を分散する技術 | LVS, HAProxy, keepalived など | Active-Active 構成で高可用性を確保 |
LVS (Linux Virtual Server) | Linux 標準のロードバランサ機構 | kernel モジュール ip_vs による実装 | NAT/DR/TUN の3 方式を理解 |
IPVS | LVS のカーネルモジュール部分 | /proc/net/ip_vs などで確認 | ipvsadm コマンドと併せて暗記 |
ipvsadm | LVS 管理コマンド | ipvsadm -A/-a/-L など | 設定内容の保存・復元操作に注意 |
Director Server | クライアント要求を分散するサーバ | LVS の制御ノード | 冗長構成(keepalived)と併用 |
Real Server | 実際に処理を行うバックエンド | Web / DB / App サーバ等 | ヘルスチェック監視対象 |
LVS-NAT | NAT モードによる負荷分散方式 | Director が宛先変換・戻り通信も仲介 | スループットが低いが汎用的 |
LVS-DR | Direct Routing 方式 | MAC 書換で応答を直接返す | 高速だが同一L2 セグメント必須 |
LVS-TUN | IP トンネリング方式 | 異セグメントノード間通信を許可 | トンネル設定の理解が必要 |
keepalived | VRRP と LVS 管理を統合するデーモン | /etc/keepalived/keepalived.conf 設定 | VRRP バックアップ制御問題に頻出 |
VRRP | Virtual Router Redundancy Protocol | 仮想IP を共有し Active/Backup 切替 | 優先度(priority) と preempt 理解 |
vrrp_instance | keepalived 内のVRRP設定ブロック | state, priority, interface など定義 | 状態遷移 MASTER/BACKUP を把握 |
virtual_server | LVS 設定ブロック | protocol, real_server 定義 | ポート単位で仮想サービス定義 |
ldirectord | LVS 構成を管理する補助デーモン | heartbeat と連携 | keepalived との違いを区別 |
healthcheck | バックエンド生存監視 | ICMP, TCP, HTTP, SSL 等 | 障害検出と削除動作を理解 |
HAProxy | 汎用ロードバランサ/リバースプロキシ | L7 対応、細かいルール設定 | LVS との比較と機能差 |
HAProxy.cfg | HAProxy 設定ファイル | global, defaults, frontend, backend | frontend/backend 構造理解 |
frontend | HAProxy でクライアント受付定義 | bind アドレス, ACL など | ACL でルーティング制御 |
backend | 実際に接続先を定義 | server パラメータ, balance 方式 | ラウンドロビン設定確認 |
balance algorithm | 負荷分散アルゴリズム | roundrobin, leastconn, source 等 | 特徴と用途を暗記 |
stickiness | セッション固定化機能 | cookie や source IP で維持 | ステートフル通信に必須 |
check interval | バックエンド監視間隔 | check inter 2s など | 頻度と負荷のバランスを理解 |
weight | 各ノードの重み付け | server backend1 weight 2 など | 負荷分散比率制御に頻出 |
fall/rise | 障害検出・復帰閾値 | fall 3 rise 2 など | flapping 防止設定を理解 |
maxconn | 最大同時接続数 | サーバの過負荷防止 | connection limit 設定問題 |
x-forwarded-for | クライアントIP 転送ヘッダ | proxy経由アクセス解析に利用 | セキュリティ考慮も出題あり |
SSL Termination | SSL 終端をLB側で実施 | HAProxy や Nginx LB で対応 | CPU負荷軽減効果を理解 |
TCP mode | L4 レベルでの転送 | mode tcp 設定 | SSL/TLS 透過構成に使用 |
HTTP mode | L7 レベルでの転送 | mode http 設定 | ACL で高度な制御可能 |
backend health | バックエンド健全性 | 監視失敗で自動除外 | 出題頻度高い監視項目 |
keepalive | TCP 接続の維持設定 | 長寿命セッション対策 | timeout 設定と併用理解 |
timeout connect | 接続タイムアウト設定 | HAProxy の defaults 内 | 過負荷時挙動に影響 |
timeout server | サーバ応答タイムアウト | 応答遅延時の切断制御 | 実運用値を把握 |
timeout client | クライアント待機時間 | idle 接続切断に利用 | 短すぎると誤切断リスク |
stats socket | HAProxy 制御用ソケット | /run/haproxy/admin.sock | CLI 操作で動的設定確認 |
HAProxy stats page | 統計情報閲覧画面 | /stats URL を設定 | 監視UI の利用方法出題 |
systemd unit | keepalived/HAProxy の起動制御 | systemctl enable keepalived | 自動起動設定を確認 |
Firewall 設定 | LB ポート通信許可 | iptables/nftables 使用 | NAT/DR 方式でルール差異あり |
IP Hash | クライアントIP に基づく分散 | セッション維持に利用 | スティッキー設定との違い |
Round Robin | 順番に振り分ける方式 | デフォルトの負荷分散法 | 均等分散に使用 |
Least Connection | 接続数の少ないノードに優先転送 | balance leastconn | 長時間接続で有効 |
Source Algorithm | クライアントIP 固定分散 | 一貫性のあるルーティング | スティッキー構成で使用 |
Layer 4 Load Balancing | TCP/UDP レベルで分散 | LVS, IPVS で実装 | L7 より高速・単純 |
Layer 7 Load Balancing | アプリ層での分散 | HAProxy, Nginx など | コンテンツベース制御可能 |
Failover Pair | 2 台のLB間の冗長構成 | VRRP で VIP を切替 | keepalived で構成 |
Virtual IP (VIP) | 仮想的なサービスIP | Active LB が所有 | VRRP と組み合わせ出題 |
Preempt Mode | 高優先度ノードが復帰時に主導権奪取 | preempt true 設定 | 優先度制御挙動を理解 |
Priority | VRRP の優先度値 | 0〜255 範囲 | 数値が高いほど MASTER 優先 |
Advert Interval | VRRP 広告間隔 | デフォルト1秒 | 応答遅延調整に利用 |
garp_master_delay | Gratuitous ARP 送信遅延 | IP 引継ぎの安定化 | IP 重複防止策として出題 |
vrrp_script | 状態監視スクリプト設定 | script "pidof nginx" | 条件でMASTER切替を制御 |
script_user | vrrp_script 実行ユーザ | root / 非特権 指定可 | セキュリティ強化の一環 |
notify_master | MASTER 昇格時に実行 | 外部スクリプト起動 | フックポイント出題あり |
notify_backup | BACKUP 遷移時に実行 | 冗長機側スクリプト呼出し | 状態変化監視理解 |
notify_fault | 障害時呼出しスクリプト | ログ通知・自動復旧 | 運用監視と連携 |
sysctl net.ipv4.ip_nonlocal_bind | VIP バインド許可設定 | 0→1 で 非所属IP 利用可 | keepalived 利用時に必須 |
sysctl arp_ignore | ARP 応答制御 | 1 or 2 に設定 | DR 方式のARP 競合防止 |
sysctl arp_announce | ARP 送信制御 | 2 で送信元IP 制御 | DR 構成で重要設定 |
Persistence Timeout | セッション保持時間 | persistence_timeout 60 | 短すぎるとセッション切断 |
SYN Proxy | SYN フラッド対策 | iptables / HAProxy 内機能 | セキュリティ対策知識必要 |
conntrack | Netfilter 接続追跡 | 状態保持・NAT 管理 | L4 LB と連動確認 |
nftables | 新世代 ファイアウォール フレームワーク | nft コマンドで制御 | iptables との関係理解 |
keepalived daemon | 常駐プロセス | systemctl status 確認 | 状態とPID監視 |
check_daemon | バックエンド監視プロセス | script または MISC_CHECK | カスタム監視作成出題あり |
ipset | IP アドレス集合管理 | DDoS 防御・アクセス制御 | LB 連携で出題あり |
NAT Hairpin | 内部からVIP 接続を処理 | SNAT/DNAT 併用 | 内部通信動作の理解 |
Multi-VIP | 複数 VIP 割当構成 | 複数サービス分散 | keepalived 複数 instance 設定 |
Interface Bonding | NIC 冗長化で帯域確保 | mode 0〜6 指定 | LB サーバ冗長構成関連出題 |
conn_limit | 接続上限設定 | DoS 対策 | LB 防御設定に出題 |
DSR (Direct Server Return) | LVS-DR と同義 | 応答を直接返す方式 | ARP 抑制が必要 |
HTTP Health Check | HTTP ステータス監視 | GET /healthz 等 | 正常判定条件を理解 |
SSL Passthrough | SSL を終端せず中継 | L4 モードで構成 | オフロードとの違い理解 |
Reverse Proxy | クライアントとバックエンドの中継 | HAProxy / Nginx 実装 | セキュリティ・キャッシュ両面問われる |
Weighted Round Robin | 重み付き分散 | 高性能ノード優先 | weight パラメータ設定 |
Connection Tracking | 状態管理 | conntrack で処理 | TCP セッション保持理解 |
TCP Reset | タイムアウト切断時の応答 | 不要接続即断 | 高速回復制御 |
Layer 7 Inspection | HTTP ヘッダ解析 | ACL / ルール分岐 | コンテンツ制御理解 |
stick-table | HAProxy のセッション記録機能 | stick-table type ip | ACL 連携で高難度出題 |
http-request deny | ACL で拒否制御 | WAF的制御に利用 | L7 セキュリティ関連問題 |
global section | HAProxy.cfg 最上位設定 | user/group, chroot など | 安全運用設定確認 |
defaults section | 共通設定定義 | timeout, option 設定 | frontend/backend 継承構造理解 |
option redispatch | サーバ失敗時再接続制御 | 負荷分散再試行 | 冗長化設定として問われる |
option httplog | HTTP ログ出力形式 | Apache互換ログ生成 | 監視・解析設定で出題 |
log global | syslog 送信設定 | /dev/log など | 外部ログ転送理解 |
failover testing | LB 冗長構成のテスト | MASTER切替・サービス確認 | 実環境試験理解問題 |
第3章:361-3 Failover Clusters(フェイルオーバークラスタ)
暗記のポイントは以下の通りです。
- Pacemakerの制約設定(Order・Colocation・Location)が出題の中核。
- フェイルオーバーとフェイルバックの違いを具体例で説明できるように。
crm_resource cleanup
、crm_simulate
、stonith_admin
はコマンド構文ごとに暗記。- DR構成を想定した
booth + ticket + geo cluster
は Version 3.0 から重要テーマ。
用語 | 意味 | 主な使い方や構成要素 | 試験でのポイント |
---|---|---|---|
Failover Cluster | 障害時にサービスを別ノードへ自動切替 | Pacemaker, Corosync で構成 | Active-Passive構成の基本理解 |
Active-Passive | 1台稼働+1台待機の構成 | フェイルオーバーで切替 | Active-Activeとの違いを理解 |
Active-Active | 両ノード同時稼働型クラスタ | 負荷分散も兼ねる | データ同期が課題になる構成 |
Pacemaker | フェイルオーバーを制御するマネージャ | CRM, CIB, STONITH と連携 | 306試験の中核技術 |
Corosync | クラスタ通信レイヤ | 心拍監視、メンバー管理 | 通信障害時の挙動理解 |
Resource Agent | サービス起動/停止スクリプト | OCF準拠スクリプト | /usr/lib/ocf/resource.d/ に配置 |
Cluster Resource | 管理対象の個別リソース | IP, FS, サービスなど | 定義・依存関係設定の理解 |
Failover Domain | 優先ノード指定 | 特定ノードへの自動移行制御 | PacemakerではLocation Constraintで管理 |
Constraint | リソース依存・配置ルール | order, colocation, location | リソース動作関係を制御 |
Order Constraint | 起動順序指定 | 例: FS → IP → サービス | 障害復旧時にも順序適用 |
Colocation Constraint | 同一ノード上での動作指定 | IPとWebを同居 | 高可用性設計に必須 |
Location Constraint | 配置制御ルール | score値でノード優先度指定 | INFINITY /-INFINITY の意味理解 |
Migration Threshold | フェイルオーバー許容失敗数 | 例: migration-threshold=3 | 過剰切替防止に利用 |
Stickiness | 現ノード維持度合い | 高値で移動抑止 | 不安定時の安定稼働に関係 |
Failback | 元ノードへの復帰 | 自動/手動制御可能 | 自動復帰時のタイミング理解 |
Maintenance Mode | クラスタ管理を一時停止 | crm configure property maintenance-mode=true | 構成変更・点検時に使用 |
STONITH | ノード強制停止(fencing) | Split-brain防止機構 | 無効化は原則禁止 |
Fence Device | STONITHデバイス | IPMI, iLO, power switchなど | 設定手順と種類を理解 |
Split Brain | クラスタ通信断による二重稼働 | STONITHで防止 | 対策と症状を理解 |
Quorum | クラスタ過半数投票 | quorumd, votequorum利用 | 失効時の動作を理解 |
No-Quorum-Policy | クォーラム喪失時動作 | stop/freeze/ignore/suicide | デフォルトはstop |
crm_mon | 状態監視コマンド | crm_mon -1r | 状態出力の見方を覚える |
crm_resource | リソース操作コマンド | move, cleanup, restart | 実運用操作問題に頻出 |
crm_simulate | 設定検証ツール | 障害シナリオをシミュレーション | 変更前テストで使用 |
crm_report | 障害時ログ収集ツール | /var/lib/pacemaker/reports | トラブルシュート問題に出やすい |
pcs | RedHat系クラスタ管理コマンド | pcs cluster setup | crmshとの違いを理解 |
crmsh | SUSE系クラスタ管理ツール | 対話型CLI操作 | 構文と主要サブコマンド理解 |
cibadmin | CIB直接操作コマンド | XML編集・差分適用 | 誤操作の危険性に注意 |
Cluster Property | クラスタ全体設定 | stonith-enabled , no-quorum-policy など | 全体動作制御に関係 |
Node Attribute | ノード属性値設定 | region=tokyo など | Location制約条件に使用 |
Resource Defaults | 全リソースの共通設定 | resource-stickiness , migration-threshold | default設定の作用を理解 |
Fail Count | リソース失敗カウンタ | crm resource cleanup でリセット | フェイルオーバー条件に関係 |
Recovery Policy | 障害発生時のリカバリ戦略 | 自動再起動 or 移動 | 設定例の違いを暗記 |
Pacemaker Remote | SSH接続で外部ノード管理 | 仮想/リモートノードも管理可能 | 軽量クラスタ構成で出題あり |
Watchdog | ハードウェア監視機能 | /dev/watchdogを利用 | ハードフェンス補助に使用 |
Fencing Topology | フェンシング優先順位設定 | 複数デバイス併用構成 | 優先順理解と実用性 |
Fence Delay | フェンシング遅延設定 | 同時実行競合防止 | stonith-action=off 等設定例 |
Node State | ノード状態管理 | online/offline/standby | 状態変更コマンドを覚える |
Standby Node | 待機ノード | 障害時にActive化 | 状態遷移理解 |
Rejoin | 障害復旧後のノード再参加 | crm node online | クォーラム再計算との関係 |
Resource Clone | 同一リソースを複数ノードで稼働 | Apacheなどの並列起動に使用 | clone-max, clone-node-maxを理解 |
Master/Slave Resource | 主従制御リソース | DRBD, Galera Clusterなど | マスタ昇格制御の理解 |
Meta Attribute | リソース特性設定 | target-role, is-managed等 | 制御状態の切替 |
Target Role | リソースの動作役割設定 | Started, Stopped, Master等 | 状態操作に利用 |
Cluster Logging | Pacemakerログ出力設定 | PCMK_logfile, syslog連携 | トラブル調査時の必須知識 |
Cluster Rejoin | ノード再参加 | 再同期・再投票処理 | クォーラム復帰動作理解 |
Geo Cluster | 拠点間冗長構成 | boothで制御 | 遠隔地フェイルオーバー理解 |
Booth | Geoクラスタ制御デーモン | チケット配布でリソース制御 | 306試験新範囲要素 |
Ticket | Geoクラスタでの権限トークン | boothサーバで管理 | 一方のみアクティブ化制御 |
Fencing Agent | 外部フェンス実行プログラム | fence_ipmilan, fence_ilo等 | コマンドの使い分け理解 |
fence_ipmilan | IPMI経由フェンスコマンド | 電源制御 | 実環境でも多用される重要項目 |
fence_ilo | HP iLO フェンスデバイス | XMLAPIで制御 | 実装手順を把握 |
fence_vmware_soap | VMware ESXi フェンス | vSphere経由制御 | 仮想環境対策問題あり |
DRBD | データ同期ブロックデバイス | マスタ/スレーブ制御 | failover構成で連携出題 |
Cluster Filesystem | 複数ノードで共有アクセス | GFS2, OCFS2 | failover時のFS再マウント理解 |
fs_resource | ファイルシステムリソース | ocf:heartbeat:Filesystem | mount/unmount動作を理解 |
IPaddr2 | 仮想IPリソース | ocf:heartbeat:IPaddr2 | failover時のIP移動動作 |
systemdリソース | systemdユニットをクラスタ管理 | ocf:heartbeat:systemd | 近年頻出リソースタイプ |
apacheリソース | Webサービス管理用 | ocf:heartbeat:apache | 設定ファイル位置と起動確認 |
clone-min/max | 複製リソースの制限 | clone-max=2等 | 負荷分散リソース構成 |
quorumd | クォーラム補助デーモン | vote追加で過半数維持 | 2ノード構成時に有用 |
Witness Node | 軽量投票ノード | 外部クラウドに配置可能 | Split-brain防止策として出題 |
Node Weight | ノード優先スコア | location制約で使用 | スコア演算方式理解 |
Cluster Redundancy | 冗長化の設計概念 | 多重経路・電源二重化等 | 設計論的出題に注意 |
heartbeat link | ノード間通信リンク | 2重化推奨 | 通信断時split-brain対策 |
fencing race | 同時フェンス競合 | delay設定で防止 | 実運用の安全策理解 |
quorum witness | 外部仲裁ノード | DR構成で活用 | ネットワーク障害時判定補助 |
failover timing | 切替までの遅延時間 | timeoutsで制御 | 故障検知設定値理解 |
start timeout | リソース起動タイムアウト | meta属性で指定 | 遅延設定と誤検知防止 |
stop timeout | リソース停止タイムアウト | 長めに設定 | 複雑依存リソースで重要 |
monitor interval | 状態監視周期 | interval=10s 等 | 過短設定による誤検知注意 |
clone-state | cloneリソースの稼働状況 | active/passive ノード表示 | 出力解釈問題あり |
crm_resource cleanup | 失敗カウンタリセット | フェイルオーバー再試行許可 | 再起動試験時に利用 |
pacemaker alert | イベント通知機能 | email, script通知 | アラート機構を理解 |
fencing verify | フェンス動作テスト | stonith_admin --list-targets | 本番前確認手順理解 |
cluster shutdown | クラスタ安全停止 | pcs cluster stop --all | 順序とリソース停止理解 |
failover test | フェイルオーバー試験 | ネットワーク遮断・プロセスkill | 実務的手順が出題される |
recovery sequence | 障害復旧順序 | node再join→リソース起動 | 再構成時動作理解 |
failover logging | 障害発生ログ | /var/log/pacemaker.log | 解析に頻出パス |
第4章:362 High Availability Cluster Storage(高可用性クラスタストレージ)
暗記のポイントは以下の通りです。
/etc/drbd.conf
の構成と、同期モード(A/B/C)の違いは暗記必須。- Primary/Secondary 切替、
after-sb-0pri
など競合解決設定を理解。 - GFS2/OCFS2/CLVM/DLM の関連をマッピングして整理。
- iSCSI と multipath の設定を組み合わせた実運用パターンが頻出。
用語 | 意味 | 主な使い方や構成要素 | 試験でのポイント |
---|---|---|---|
Shared Storage | 複数ノードで共有するストレージ | FC, iSCSI, NFS など | クラスタ構築に不可欠な共有資源 |
Shared-Nothing | 各ノードが独立ディスクを持ち同期 | DRBD など | HA構成でよく採用される方式 |
DRBD (Distributed Replicated Block Device) | ネットワーク経由でブロックレベル同期 | Primary/Secondary モード | LPIC306の中心テーマの1つ |
drbdadm | DRBD 管理コマンド | create-md, up, status など | CLI操作を暗記しておく |
drbdsetup | 低レベル構成コマンド | 同期モード・ネット設定 | 詳細制御問題に頻出 |
/etc/drbd.conf | DRBD 設定ファイル | global, common, resource セクション | resource 名の指定を理解 |
drbd kernel module | カーネルモジュール | modprobe drbd で読み込み | 起動時自動ロード設定を確認 |
Primary Node | 書き込みを担当するノード | Secondary と同期 | 手動昇格コマンド drbdadm primary |
Secondary Node | 読み取り専用の待機ノード | Primary と同期維持 | 手動切替時の動作を理解 |
Protocol A/B/C | DRBD 同期モード | A=非同期, B=半同期, C=同期 | Cモードが最も安全 |
drbd-meta-data | メタデータ領域 | デバイス末尾に作成 | 同期情報を保持 |
drbdadm status | 同期状態表示 | UpToDate / SyncSource / SyncTarget | ステータス値の意味を覚える |
drbdadm role | ノードの役割確認 | Primary/Secondary 表示 | 状態変化を確認できる |
SyncSource | 同期元ノード | データ送信側 | 同期再構築時に出題あり |
SyncTarget | 同期先ノード | 受信側 | 進捗%の確認方法を理解 |
Initial Sync | 初期同期 | 初回のデータコピー | 長時間かかる特性を理解 |
Resync | 再同期 | 障害復旧後の差分同期 | 自動再開の条件理解 |
Split Brain (DRBD) | 両ノードがPrimary化 | 手動復旧が必要 | drbdadm connect --discard-my-data |
Disk State | ディスク状態 | UpToDate, Inconsistent 等 | 正常状態の組み合わせ理解 |
Connection State | 接続状態 | Connected, WFConnection 等 | 切断・再接続挙動を理解 |
drbdadm disconnect | 接続切断コマンド | 手動テストに使用 | 再接続時の注意点理解 |
fencing resource-only | DRBD 用フェンシングモード | Resource単位の制御 | Split-brain防止に有効 |
fencing resource-and-stonith | DRBD + STONITH 両方利用 | 高信頼構成 | 高難度構成として出題あり |
after-sb-0pri | Split Brain 発生時ポリシー | discard-younger-primary 等設定 | 競合解決ポリシー暗記 |
disk-barrier | 書き込み整合性機能 | no-disk-barrier 設定時の危険性理解 | パフォーマンスと整合性トレードオフ |
al-extents | Activity Log 範囲設定 | 同期効率向上 | 設定値の意味を理解 |
bitmap | 同期差分管理機能 | 変更ブロック追跡 | 効率的再同期の要 |
quorum-device | DRBDクォーラム機構 | tie-breaker として機能 | 2ノード構成で重要 |
drbdsetup events2 | 状態変化イベント監視 | スクリプト連携可能 | 運用監視で使用 |
drbd-status | 状態確認ツール | 統合的に状態表示 | cat /proc/drbd の代替 |
cat /proc/drbd | DRBD 状態情報参照 | kernelレベル出力 | 試験でも頻出コマンド |
LVM (Logical Volume Manager) | 論理ボリューム管理 | pvcreate, vgcreate, lvcreate | DRBDやGFS2と連携 |
LVM2 metadata | ボリューム構成情報 | /etc/lvm/lvm.conf | クラスタ環境で共有可否理解 |
CLVM (Cluster LVM) | クラスタ対応LVM | DLMと連携 | 共有ボリュームのロック制御 |
lvmlockd | LVMロック管理デーモン | dlmロック使用 | Clustered LVM構成で必須 |
DLM (Distributed Lock Manager) | クラスタ間ロック制御 | GFS2, CLVMと連携 | 分散FS運用の基盤 |
dlm_controld | DLM制御デーモン | systemdで起動管理 | GFS2と併用理解 |
GFS2 (Global File System 2) | Red Hat系クラスタファイルシステム | 複数ノードから同時アクセス可能 | fencing設定が必須 |
OCFS2 (Oracle Cluster FS 2) | Oracle開発のクラスタFS | DRBDやiSCSIと併用可能 | GFS2との比較を理解 |
mkfs.gfs2 | GFS2ファイルシステム作成 | -j でジャーナル数指定 | ジャーナルの意味理解 |
mount -t gfs2 | GFS2マウントコマンド | lockproto, locktable指定 | ノード識別設定を覚える |
lockproto | ロックプロトコル指定 | lock_dlmなど | クラスタ同期制御 |
locktable | クラスタ内のFS識別名 | clustername:fsname 形式 | 一意性が必要 |
gfs2_tool | GFS2診断ツール | journal情報, stat確認 | 廃止予定、gfs2_edit等へ移行 |
gfs2_edit | GFS2メタデータ編集 | 構造確認に使用 | 直接変更は危険 |
gfs2_fsck | GFS2整合性チェック | ファイルシステム修復 | クラスタ停止中に実行 |
ocfs2console | OCFS2 GUI管理ツール | ボリューム設定可視化 | CLI設定と比較理解 |
o2cb | OCFS2クラスタスタック | ノード検出と通信管理 | pacemaker併用設定理解 |
mkfs.ocfs2 | OCFS2フォーマットコマンド | ジャーナル数・ノード数指定 | クラスタ構成時の注意 |
mount.ocfs2 | OCFS2マウントコマンド | /etc/ocfs2/cluster.conf利用 | 設定ファイルの重要性 |
ocfs2_hb_ctl | ハートビート制御ツール | ノード監視と再起動制御 | failover時の挙動確認 |
iSCSI | ネットワークベースの共有ブロック | targetd, initiator使用 | DRBDやGFS2と併用 |
tgtadm | iSCSIターゲット管理 | target, lun設定 | コマンド構文を理解 |
iscsiadm | iSCSIイニシエータ制御 | discovery, login操作 | 永続接続設定を覚える |
multipathd | マルチパスI/Oデーモン | /etc/multipath.conf | パス障害時フェイルオーバー制御 |
device-mapper-multipath | マルチパスデバイス管理 | multipath -ll で確認 | 冗長経路設計理解 |
udev | デバイス管理サブシステム | 動的デバイス命名 | クラスタ環境のデバイス競合対策 |
Persistent Device Name | 永続デバイス名 | /dev/disk/by-id/ | フェイルオーバー時の安定識別 |
UUID | ファイルシステム識別子 | blkidで確認 | fstab設定で推奨 |
mount options noatime | アクセス時刻更新無効化 | 性能向上 | クラスタFSでの最適化設定 |
journaling | 書き込みログ保持機構 | GFS2, OCFS2等で利用 | 故障時リカバリの仕組み理解 |
quorumd (storage) | ストレージクォーラム制御 | iSCSI共有ロックなど | CLVMとの連携理解 |
snapshot | ストレージの時点コピー | LVM snapshotで実現 | DRBD併用時の整合性注意 |
thin provisioning | 薄プロビジョニング | 実容量より多く割当 | LVMのthin pool設定出題 |
RAID | 冗長ディスク構成 | mdadmで構築 | RAID10/5などの特性理解 |
mdadm | Linux ソフトウェアRAIDツール | create, detail, monitor | RAID障害検知と修復 |
bitmap (RAID) | RAIDの差分同期機能 | /sys/block/mdX/md/bitmap | 再同期高速化機能理解 |
filesystem fencing | FSレベルのフェンシング | lock失敗時FS停止 | GFS2/OCFS2で必須設定 |
SAN | ストレージエリアネットワーク | Fibre Channel接続 | FC構成とiSCSI比較出題 |
WWN (World Wide Name) | FCデバイス識別子 | HBA固有ID | マッピング設定理解 |
HBA | ホストバスアダプタ | FC接続用NIC | マルチパス構成で使用 |
multipath.conf | マルチパス設定ファイル | path_grouping_policy等設定 | policy値の意味を理解 |
path checker | 経路監視機構 | tur, readsector0等 | 検証方式の違い理解 |
drbd-utils | DRBD管理パッケージ | drbdadm, drbdsetup含む | バージョン一致が重要 |
fencing resource-only | DRBD専用フェンス設定 | ノード停止せずI/O停止 | 高速フェイルオーバー構成 |
第5章:363 High Availability Distributed Storage(分散ストレージ)
暗記のポイントは以下の通りです。
- GlusterFS と Ceph を比較して構成とコマンドを整理。
- GlusterFSは Volumeタイプ(Replicated / Distributed / Disperse / Arbiter) を覚える。
- Cephは OSD・MON・MGR・MDS・CRUSH Map・Pool・PG の関係を図で理解。
ceph -s
、ceph osd tree
、ceph df
の出力を読めるように。
用語 | 意味 | 主な使い方や構成要素 | 試験でのポイント |
---|---|---|---|
Distributed Storage | データを複数ノードに分散して保存 | GlusterFS, Ceph など | スケールアウトと冗長性を両立 |
GlusterFS | オープンソース分散ファイルシステム | ブリックを束ねてボリューム構成 | LPIC306 の中心テーマの1つ |
Brick | GlusterFS の最小ストレージ単位 | 各ノードのディレクトリ | ボリューム構成の基本単位 |
Volume | GlusterFS の共有領域 | Distributed / Replicated / Disperse | ボリュームタイプを区別 |
glusterd | GlusterFS 管理デーモン | 各ノードで動作 | クラスタ構築時に常駐 |
gluster peer probe | ノード追加コマンド | クラスタへの参加登録 | 双方向認識が必要 |
gluster peer status | クラスタノード状態確認 | Connected / Disconnected | 通信異常確認に使用 |
gluster volume create | ボリューム作成 | gluster volume create vol1 replica 2 ... | コマンド構文を覚える |
gluster volume start | ボリューム起動 | 開始後にマウント可能 | 状態確認も可能 |
gluster volume stop | ボリューム停止 | メンテナンス時に実施 | 停止前にクライアント切断 |
gluster volume info | ボリューム情報確認 | 設定・構成確認 | 管理コマンド頻出 |
gluster volume status | ブリック状態確認 | Online/Offline 表示 | トラブルシュートに使用 |
Distributed Volume | データを分割して保存 | 負荷分散重視 | 冗長性なしに注意 |
Replicated Volume | 同一データを複製保存 | データ冗長性重視 | 一般的HA構成 |
Distributed Replicated Volume | 分割+複製の混合構成 | スケールと冗長性両立 | 出題頻度高い |
Disperse Volume | Erasure Coding方式 | パリティ付き冗長 | 容量効率重視の構成 |
Arbiter Volume | 調停ノード付き複製構成 | 少容量ノードで整合性維持 | Split-brain防止に有効 |
Split-brain (Gluster) | ノード間でデータ不整合 | heal コマンドで修復 | 自動heal設定を理解 |
Self-heal | 自動同期修復機能 | gluster volume heal | ヒール対象状態を確認 |
gluster volume heal info | 修復対象ファイル確認 | split-brain検出にも使用 | 実務的コマンド |
gluster volume heal full | 強制全体修復 | 再同期完了まで監視必要 | データ損失防止 |
quorum-type | クォーラム動作設定 | auto/fixed/none | 不整合対策に関係 |
transport-type | 通信方式指定 | tcp / rdma | パフォーマンス差異理解 |
performance.cache-size | クライアントキャッシュ設定 | メモリ調整 | I/O性能最適化理解 |
gluster volume set | ボリューム設定変更 | performance, auth設定等 | key-value形式を理解 |
gluster volume reset | 設定初期化 | デフォルト状態へ戻す | 誤設定時の回復手段 |
gluster volume delete | ボリューム削除 | 停止後に実施 | データ削除に注意 |
gluster volume replace-brick | ブリック置換 | 障害ディスク交換時 | 再同期手順を覚える |
gluster volume rebalance | データ再配置 | ノード追加後に実施 | スケールアウト時に重要 |
gluster volume geo-replication | 遠隔レプリケーション設定 | master/slave 構成 | 災害対策構成で出題 |
glusterfs-fuse | FUSE 経由マウント方式 | /mnt/glusterfs 等 | クライアント側設定理解 |
mount.glusterfs | マウントコマンド | server:/volume 形式 | fstab設定方法理解 |
gluster volume quota | クォータ制限設定 | ディレクトリ単位で設定可 | 制限値設定構文覚える |
gluster volume geo-rep status | レプリケーション状態確認 | Active/Passive 表示 | ステータス確認に頻出 |
gluster volume top | ブリックI/O統計表示 | read/write ops 表示 | 負荷分析で利用 |
gluster volume tier | ホット/コールドデータ分離 | SSD+HDD階層化 | 試験では参考レベル |
gluster volume snapshot | ボリュームスナップショット | スケジュール可能 | 保護・復旧機能理解 |
glusterfsd | 各ブリックプロセス | ブリック単位で動作 | デーモンの役割理解 |
auth.allow | アクセス許可設定 | クライアントIP指定 | セキュリティ設定で頻出 |
cluster.server-quorum-type | サーバクォーラム設定 | server モード指定 | 複数ノード環境で重要 |
disperse redundancy | 冗長データ数指定 | 例: redundancy 2 | 構成式 (n+k) 理解 |
gluster-mgmt | 管理ネットワーク | 通信用独立NIC | ネット分離設計問題 |
heal daemon | 自動修復デーモン | glustershd | 常駐必須。止めないこと |
brick multiplexing | 複数brickを1プロセスで管理 | メモリ削減 | cluster.brick-multiplex 設定 |
metadata caching | メタデータキャッシュ | lookup回数削減 | パフォーマンス改善要素 |
AFR (Automatic File Replication) | 自動複製機構 | replica volumeの基礎 | 整合性維持に重要 |
sharding | ファイルを小片化保存 | 大容量ファイル分散効率化 | Gluster新機能として出題あり |
I/O thread count | 並列I/Oスレッド数 | performance.io-thread-count | 性能最適化設定 |
Ceph | 分散オブジェクト/ブロック/FSストレージ | OSD, MON, MGR, MDS 構成 | Glusterと並ぶ主要範囲 |
OSD (Object Storage Daemon) | データ実体を保持するプロセス | 各ディスクに1つ配置 | 冗長性と回復速度に関係 |
MON (Monitor) | クラスタの状態監視 | Quorum維持, MAP配布 | 常に奇数台推奨 |
MGR (Manager) | 管理機能とメトリクス収集 | Web Dashboard 提供 | MONとの役割分担理解 |
MDS (Metadata Server) | CephFS メタデータ管理 | ファイルシステムで使用 | RADOS層とは独立 |
RADOS | 基盤オブジェクトストア層 | OSDを束ねる論理層 | Cephの中心概念 |
librados | RADOSアクセスライブラリ | rbd/rgw/cephfsで利用 | API層として理解 |
CRUSH Map | データ配置アルゴリズム | バケット・ルール構成 | Ceph特有の出題重点 |
ceph.conf | Ceph設定ファイル | MON, OSD, MGR, MDS設定 | 各セクションを理解 |
ceph -s | クラスタ全体状態確認 | health OK / WARN / ERR | ステータス解釈に頻出 |
ceph osd tree | OSD階層構造確認 | host, rack, root 表示 | 配置ポリシー理解 |
ceph osd df | 使用容量確認 | 利用率・残容量を表示 | 負荷分散確認に使用 |
ceph osd crush rule dump | CRUSHルール出力 | placement group定義確認 | 冗長構成理解に必須 |
ceph health | ヘルスステータス表示 | OSD障害検知 | 出力値OK/WARN/ERRを覚える |
Placement Group (PG) | OSD間のデータ分散単位 | データの小単位クラスタ | 再配置と回復理解 |
Pool | データ論理グループ | PGの集合体 | RADOS Pool設計問題に出題 |
ceph df | プール使用状況確認 | オブジェクト数と容量表示 | rados df との違い理解 |
ceph osd repair | OSD修復コマンド | 一部データ再同期 | ノード障害後の対応 |
ceph mgr modules | MGRモジュール一覧 | dashboard, prometheus | 拡張機能把握 |
ceph fs status | CephFS状態確認 | MDS数, セッション数 | MDS障害時挙動理解 |
ceph fs volume create | CephFS作成 | volume+subvolume概念 | コマンド構文暗記 |
radosgw (RGW) | S3/Swift互換API提供 | HTTPアクセス対応 | Cephオブジェクトゲートウェイ |
ceph auth | 認証設定 | keyring管理 | 安全な通信確立理解 |
keyring | Ceph認証鍵ファイル | 各デーモン別 | 配置場所と用途 |
ceph balancer | 自動負荷再配置機能 | PG再配置を自動化 | 実運用設定理解 |
ceph orch | Orchestratorツール | cephadm経由で構築 | 新試験範囲として要確認 |
cephadm | コンテナベース構築ツール | systemd統合 | 現行標準導入方式 |
ceph-volume | OSD作成補助ツール | lvm / raw形式指定可 | 作成構文を理解 |
rbd (RADOS Block Device) | ブロックデバイス提供 | VMストレージとして使用 | rbd map/unmap コマンド理解 |
rbd snap | RBDスナップショット管理 | 作成・削除・復元 | コマンド構文出題あり |
ceph-fuse | CephFSユーザ空間マウント | /mnt/cephfs | fstab設定理解 |
ceph-mgr dashboard | Webベース管理画面 | クラスタ監視・操作 | GUI確認問題あり |
recovery/backfill | データ再同期プロセス | OSD復旧時に実施 | 状態変化メッセージ理解 |
backfill_toofull | ディスク容量逼迫警告 | OSD使用率高 | チューニング項目出題 |
replication size | レプリカ数設定 | poolごとに指定 | size=3 が一般的 |
min_size | 最小稼働レプリカ数 | quorum維持条件 | 書込み制限条件理解 |
ceph osd set noout | OSD除外フラグ | メンテナンス時に利用 | 自動再構成防止 |
ceph osd unset noout | 除外解除 | 復旧再開 | 運用時手順出題あり |
ceph status | クラスタ全体の簡易状態 | ceph -s と同義 | 出力構造理解 |
ceph versions | 各デーモンバージョン確認 | MON/MGR/OSD別表示 | 互換性確認に利用 |
ceph log | ログ出力設定 | debug_osd等 | 障害調査時に重要 |
ceph crash ls | クラッシュログ一覧 | ceph-mgr監視機能 | 最新バージョン要素 |
第6章:364 Single Node High Availability(単一ノード高可用性)
暗記のポイントは以下の通りです。
- RAID/LVM/NIC Bonding が中心。特に
mode 1 (active-backup)
は頻出。 lvcreate --type raid
やlvextend --resizefs
の構文を覚える。systemd
のRestart=always
、WatchdogSec
による自己修復を理解。- UPS/SMART/mdadm監視など、予防的HAの考え方も試験範囲。
用語 | 意味 | 主な使い方や構成要素 | 試験でのポイント |
---|---|---|---|
Single Node HA | 単一サーバ内での可用性向上 | RAID, LVM, NIC冗長化など | クラスタを使わずに冗長性を確保 |
Hardware Redundancy | 物理構成の冗長化 | 電源二重化・FAN二重化など | 可用性設計の基礎 |
Power Supply Redundancy | 電源ユニットを2系統化 | PSU 1 + 1構成 | データセンター設計に関連 |
Hot-Swappable Component | 稼働中交換可能パーツ | HDD, PSU, FANなど | ダウンタイム削減効果を理解 |
ECC Memory | 誤り訂正機能付きメモリ | Single Bit Error訂正 | サーバ向け標準仕様 |
UPS (Uninterruptible Power Supply) | 無停電電源装置 | 短時間電力供給 | 停電時の安全停止を理解 |
RAID (Redundant Array of Independent Disks) | ディスク冗長化技術 | RAID1, 5, 6, 10 など | 冗長性と性能特性を暗記 |
mdadm | Linux ソフトウェアRAID管理 | mdadm --create 等 | RAID構築コマンド頻出 |
RAID 0 | ストライピング | 高速だが冗長性なし | 業務用途では非推奨 |
RAID 1 | ミラーリング | 冗長性高い | 障害復旧時間が短い |
RAID 5 | パリティ分散 | 1台障害まで許容 | 書込性能低下を理解 |
RAID 6 | ダブルパリティ | 2台障害まで許容 | 大容量構成で有効 |
RAID 10 | ミラー+ストライプ | 高速かつ冗長 | 最も実用的構成 |
Hot Spare | 待機ディスク | 障害発生時に自動置換 | 自動再構築を理解 |
Rebuild | RAID再構築処理 | ディスク交換後に実施 | 再構築中の性能低下を理解 |
mdstat | RAID状態確認 | cat /proc/mdstat | 同期進行率など確認 |
bitmap (RAID) | 差分同期管理 | 再構築高速化 | 状態保持に重要 |
LVM (Logical Volume Manager) | 論理ボリューム管理 | PV, VG, LV構成 | 柔軟な拡張・スナップショット機能 |
pvcreate/vgcreate/lvcreate | LVM構築コマンド群 | ボリューム生成操作 | 基本コマンドを暗記 |
lvextend –resizefs | LV拡張とFS拡張を同時実行 | 容量追加に使用 | 設問で頻出 |
LVM Snapshot | 特定時点のデータコピー | lvcreate -s | 差分管理方式を理解 |
LVM Mirror | ボリューム冗長化 | lvconvert --mirror | RAID1類似構成 |
LVM RAID | LVMでのRAID構築 | RAID1/5/10対応 | mdadmとの違い理解 |
Thin Provisioning | 必要分だけ実領域割当 | lvcreate --type thin | ストレージ効率化を理解 |
lvdisplay/vgdisplay | 構成確認コマンド | 残容量や属性を確認 | 状態確認問題に頻出 |
pvmove | 物理ボリューム移動 | ディスク交換時利用 | 冗長環境で安全移動 |
RAID + LVM | 多層冗長構成 | md上にLVMなど | 実務的HA設計 |
filesystem check (fsck) | ファイルシステム検査 | ext4, xfs 対応 | 障害復旧時の定番ツール |
Journaling FS | 書込ログ保持FS | ext4, xfs, btrfs | 障害後リカバリ時間短縮 |
ext4 journal | ext4のジャーナル領域 | metadata/orderedモード | ジャーナル方式の違い理解 |
XFS Log | XFSのトランザクションログ | 外部log deviceも可 | 高速リカバリ特性を理解 |
fsfreeze | FSを一時凍結 | スナップショット時使用 | DRBD/LVM連携で重要 |
SMART (Self-Monitoring Analysis Reporting Tech) | ディスク自己診断 | smartctlで監視 | 早期障害検知の基礎 |
smartctl | SMART管理コマンド | smartctl -a /dev/sdX | 温度・再代替セクタ確認 |
badblocks | 不良セクタ検査 | badblocks -v /dev/sdX | 物理障害診断 |
iostat | I/O統計確認 | sysstat パッケージ | ディスク負荷把握に重要 |
vmstat | メモリ/CPU/I/O統計 | 定常監視ツール | トラブル解析で利用 |
uptime | 稼働時間・負荷確認 | HA稼働指標確認 | 平均負荷の解釈理解 |
sysstat package | iostat, sar等を含む | パフォーマンス監視 | 運用監視知識 |
bonding (リンクアグリゲーション) | NIC冗長化 | mode 0–6 指定可 | 高可用ネットワーク設計に必須 |
mode 0 (balance-rr) | ラウンドロビン方式 | スループット向上 | スイッチ設定依存 |
mode 1 (active-backup) | 片系待機 | 最も安定したHA構成 | デフォルト推奨構成 |
mode 2 (balance-xor) | MAC/XOR方式 | 負荷分散性能高 | スイッチ連携必要 |
mode 4 (802.3ad LACP) | ダイナミックリンクアグリゲーション | スイッチ対応必要 | 企業LANでよく採用 |
mode 5 (balance-tlb) | 転送負荷分散 | 受信側制御なし | 環境依存挙動に注意 |
mode 6 (balance-alb) | 送受信両方分散 | スイッチ非依存 | 小規模環境で有用 |
/etc/sysconfig/network-scripts/ifcfg-bond0 | bonding設定ファイル | RHEL系設定 | 設定例問題で頻出 |
MII Monitoring | リンク監視 | miimon=100 など | フェイルオーバー検知間隔 |
arp_monitor | ARP応答監視方式 | miimon代替 | 高度な冗長検出に出題 |
VLAN Tagging | 仮想LAN分離 | ip link add link eth0 name eth0.10 type vlan | HA NIC構成で重要 |
ethtool | NIC設定確認・変更 | スピード/デュプレックス変更 | 障害診断に使用 |
IP Bonding with VRRP | NIC + 仮想IP冗長化 | keepalived と組み合わせ | LB構成応用として理解 |
NetworkManager | ネットワーク管理デーモン | nmcli, nmtui で設定 | bonding/VLAN連携理解 |
redundant gateway | ゲートウェイ冗長化 | VRRPやOSPF利用 | ネットワークHA設計問題 |
multipath I/O | ストレージ経路冗長化 | device-mapper-multipath | 経路障害対策に出題 |
/etc/multipath.conf | マルチパス設定 | path_checker設定など | policy値を覚える |
path_grouping_policy | 経路グループ化方式 | failover/multibus | 方式の違い理解 |
watchdog | ハードウェア監視タイマー | systemd watchdog設定 | 自動再起動メカニズム |
systemd-watchdog | サービス監視機能 | WatchdogSec=30s | プロセス停止時自動再起動 |
service Restart=always | systemd単位の自動再起動 | Unit設定で利用 | 単一ノードHAの基本設定 |
tmpfiles.d | 一時ファイル再生成 | 再起動時整合性維持 | 冗長性設計で補助的 |
backup rotation | 定期バックアップ世代管理 | logrotate, cron等 | データ保全と復旧性評価 |
snapshot backup | LVMスナップショット利用 | オンラインバックアップ | 差分保存方式理解 |
rsync –link-dest | 差分バックアップ実装 | ハードリンク方式 | 増分保存と世代管理 |
cron + anacron | 自動バックアップ実行 | 定期ジョブ設定 | 可用性維持の運用対策 |
systemctl enable | 自動起動登録 | 永続化設定 | サービス継続稼働確認 |
sysctl kernel.panic | カーネルパニック時再起動 | sysctl -w kernel.panic=10 | 自動復旧設定に頻出 |
kdump | カーネルクラッシュダンプ | /var/crash出力 | 障害解析準備もHA要素 |
rsyslog remote | ログを外部送信 | 冗長ロギング | ログ保全と可用性関連 |
SMART Alert | HDD障害検知通知 | smartd.conf | メール通知設定理解 |
temperature monitor | ハード温度監視 | lm-sensors使用 | 予防保守対策 |
lm-sensors | ハードウェアセンサ監視 | sensorsコマンド | CPU温度, FAN速度確認 |
RAID monitor | mdadm監視 | mdadm --monitor | 自動通知設定を理解 |
fail-safe kernel | 予備カーネル設定 | grubエントリ保持 | 起動失敗対策 |
dual-boot system | 複数OS環境 | バックアップ用途 | 単一障害点削減策理解 |
firmware update automation | 自動FW更新 | fwupd利用 | セキュリティ維持策 |
redundant network path | 複数経路通信 | NIC bonding + ルーティング | 可用性向上設計 |
hot plug support | 稼働中デバイス追加 | USB, SAS, NVMe | サービス継続性に関係 |
SMART self-test cron | 定期自己診断 | smartd自動実行 | 定常監視問題 |
RAID check cron | RAID整合性定期検査 | /etc/cron.d/mdadm | スケジュール設定確認 |
failover script | 自動復旧スクリプト | systemd ExecStartPre等 | 単体サーバでも実装可 |
kernel softlockup | CPUハング検知 | watchdog連携再起動 | 高可用監視理解 |
graceful shutdown | 正常停止処理 | UPS信号で実行 | データ保護の観点 |
dracut rescue | 救援initramfs | 起動不能時対応 | 冗長ブート構成関連 |
BIOS Redundancy | 二重BIOS搭載 | 一部サーバ機能 | 自己修復機能理解 |
firmware watchdog | BIOS内蔵監視機能 | ハードリセット実施 | Linux側設定連携 |
bootloader redundancy | GRUB複製 | 複数ディスクにMBR | ブート障害対策 |
その他補足情報
LPIC306に関する試験の補足情報を以下に記載します。
概要・前提条件
項目 | 内容 |
---|---|
試験コード | 306-300 |
試験時間 | 90分 |
試験提供機関 | Pearson VUE / Linux Professional Institute (LPI) |
問題数 | 60問(選択式+記述式) |
認定の有効期間 | 5年 |
前提条件 | LPIC-2 の認定を保持していること |
試験テーマ | High Availability and Storage Clusters(高可用性およびストレージクラスタ) |
試験バージョン | Version 3.0 |
注意事項 | 旧LPIC-3 304(仮想化+高可用性)はVersion 3.0から分割され、305(仮想化/コンテナ)と306(高可用性/ストレージ)に改定されました。 |
出題範囲
試験範囲は大きく 4 つのトピック(Topic 361~364)に分かれ、それぞれの重み(Weight)があります。
トピック | 主な内容 | 重み(試験での比率目安) |
---|---|---|
361:High Availability Cluster Management | 高可用性クラスタの基本概念、クラスター設計、フェンシング、分割脳(split-brain)、冗長性、フェイルオーバー/フェイルバック制御など | 6 |
361-2:Load Balanced Clusters | LVS/IPVS、keepalived、ldirectord、HAProxy のインストール・設定・保守・トラブル対応、VRRP 概念など | 8 |
361-3:Failover Clusters | フェイルオーバークラスタの構成、リソース管理、クラスタの再編成、フェイルオーバー動作、クラスタ通信 | 8 |
362:High Availability Cluster Storage | DRBD(分散レプリケーション)、クラスターでのストレージアクセス(共有ストレージ方式)、クラスタファイルシステム(例:GFS2、OCFS2 など) | DRBD:6、Cluster Storage Access:3、Clustered FS:4 |
363:High Availability Distributed Storage | 分散ストレージ技術:GlusterFS のクラスタリング、Ceph クラスタ(OSD, MON, MGR, MDS 等の構成と運用) | GlusterFS:5、Ceph:8 |
364:Single Node High Availability | 単一ノードでの可用性確保、ハードウェア障害対策、RAID 上級設定、LVM 上級設定、ネットワーク可用性(冗長 NIC、bonding、フェイルオーバー等) | Hardware/Resource HA:2、Advanced RAID:2、Advanced LVM:3、Network HA:5 |
各トピックの補足説明・要注意点
トピック | 主な内容・キーワード |
---|---|
361:クラスタ管理(管理手法・設計) | – クラスタ構成モデル(Active-Passive/Active-Active/Shared-Disk/Shared-Nothing) – Shared-Nothing vs Shared-Disk 比較 – フェンシング(ノードフェンシング/リソースフェンシング)の手法- Split-Brain(分割脳)発生時の対策- クラスタのリソース/サービス/監視・健全性チェック |
361-2 & 361-3:ロードバランス/フェイルオーバークラスタ | – LVS/IPVS:負荷分散方式、プロトコル、設定- keepalived:VRRP による冗長構成 – ldirectord:バックエンドノード管理 – HAProxy:ロードバランサ/プロキシとしての設定 – フェイルオーバークラスタにおけるノード管理、フェイルオーバー/フェイルバック動作 |
362:クラスタストレージ | – DRBD:ノード間データレプリケーション、同期モードと非同期モード – 共有ストレージアクセス:FC、iSCSI、共有ディスク方式の概念と利用時の注意点 – クラスタ対応ファイルシステム:GFS2、OCFS2 などの構成と運用 |
363:分散ストレージ | – GlusterFS:ノード追加、レプリケーション、ブリック構成、ボリュームタイプ – Ceph:MON/OSD/MGR/MDS 構成、CRUSHルール、スケーラビリティ、フェイルオーバー、再構築、モニタリング |
364:単一ノードの高可用性技術 | – RAID(RAID5/6/10など)の高度構成・パラメータ – LVM 高度設定:RAID併用、スナップショット、高度パラメータ調整 – ネットワーク可用性:NIC 冗長化、bonding、冗長経路設計 |