「LP改善」と言われても、何を変えればいいかわからない

マーケティング会議で「LPのコンバージョン率が低い」と指摘を受けたとき、改善案はいくつも思い浮かぶかもしれません。ボタンの色を変える、キャッチコピーを書き直す、フォームの項目を減らす、お客様の声を追加する。

しかし、どの改善策が本当に効果があるのかは、やってみなければわかりません。直感や好みで変更して「やっぱり前の方がよかった」となるのは、時間と予算の無駄です。

そこで必要になるのがA/Bテストです。元のページ(A)と改善案のページ(B)を同時に公開し、実際のアクセスデータで「どちらが問い合わせにつながるか」を客観的に判定する手法です。

LP全体のUI/UXデザインの原則については、デザインラボの解説記事が参考になります。この記事では、デザインの変更を「勘」ではなく「データ」で検証するA/Bテストの具体的な進め方に絞って解説します。

A/Bテストの仕組みを5分で理解する

A/Bテストの仕組みはシンプルです。LPにアクセスしてきたユーザーを自動的に2つのグループに分け、グループAには現在のページを、グループBには変更を加えたページを表示します。一定期間データを蓄積した後、どちらのグループのほうがコンバージョン率が高かったかを比較します。

たとえば、CTAボタンのテキストを「お問い合わせ」から「無料で相談する」に変えた場合の効果を測りたいとします。2週間で各グループに500人ずつアクセスがあり、グループA(お問い合わせ)のコンバージョンが15件(3.0%)、グループB(無料で相談する)のコンバージョンが24件(4.8%)だったとしたら、テキストの変更だけでコンバージョン率が60%向上したことになります。

ポイントは、テスト期間中にA以外のすべての条件(広告、流入キーワード、時間帯など)が同一であることです。だからこそ「変更箇所の効果」だけを正確に測定できるのです。

なお、A/BテストはWebページだけでなく、メールの件名や広告クリエイティブなど、あらゆるデジタルマーケティング施策に応用できます。Nielsen Norman Groupのユーザビリティテスト解説では、A/Bテストとユーザビリティテストの使い分けについて詳しく解説されています。

テストすべき要素の優先順位

LPのどの要素をテストすべきかは、コンバージョンへの影響度で優先順位をつけます。VWOのA/Bテスト完全ガイドによると、影響度の高い順に並べると次のようになります。

最優先:見出し(キャッチコピー)

ファーストビューの見出しは、ユーザーがページに留まるかどうかを決定する最大の要素です。「製品の特長を述べる見出し」と「顧客の課題を言語化する見出し」では、後者のほうがコンバージョン率が2〜3倍高いというデータが多数報告されています。

具体例として、SaaS企業のLP見出しテストでは「高機能なプロジェクト管理ツール」(機能訴求)より「チームの生産性を30%向上させる」(課題解決訴求)のほうが、申込率が2.1倍になったという事例があります。

高:CTAボタン

ボタンのテキスト、色、サイズ、配置をテストします。特にテキストの変更は低コストで大きな効果が出やすい項目です。「送信」「申し込む」のような一般的な表現より、「無料で見積もりを受け取る」のように次に起きることを具体的に示す表現が有効です。

2026年現在は、CTAの文言だけでなく「マイクロコピー」(ボタン周辺の補足テキスト)のテストも重視されています。ボタンの下に「30秒で完了・クレジットカード不要」と添えるだけでCVRが15〜25%向上するケースが報告されています。

中:フォーム

入力項目の数を変えるテストは、コンバージョン率に直結します。HubSpotの調査では、フォーム項目の削減がCVR改善の最も即効性のある施策の一つとされています。目安として項目を1つ減らすごとにCVRが5〜15%向上する傾向があります。

最近は「ステップフォーム」(入力を複数ページに分割)のテストも効果的です。1ページに10項目を並べるより、3ステップ×3〜4項目に分けたほうが完了率が20〜30%高いという結果が多く見られます。

低(ただし効果はある):画像、レイアウト、色

視覚的な要素の変更は、見出しやCTAほどの劇的な効果は出にくいものの、長期的な改善サイクルの中で取り組む価値はあります。特にヒーロー画像(ファーストビューのメイン画像)は、ストック写真から実際の製品画像やチームの写真に変えるだけでコンバージョン率が改善するケースが多く報告されています。

実施手順:4ステップで進める

ステップ1:仮説を立てる

A/Bテストを始める前に、必ず仮説を言語化してください。「CTAボタンのテキストを'お問い合わせ'から'無料で相談する'に変えると、心理的ハードルが下がりコンバージョン率が上がるのではないか」のように、なぜその変更が効果をもたらすと考えるのかを明記します。

仮説がないテストは、結果が出ても「なぜそうなったのか」がわからず、次の改善に活かせません。CXLのA/Bテストガイドでも、仮説なきテストは学習効率が大幅に低下すると指摘されています。

仮説を立てる際のフレームワークとして、次のテンプレートが便利です:

「[ページの要素]を[現状]から[変更案]に変えると、[理由]により、[KPI]が向上する」

たとえば「CTAボタンのテキストを'送信'から'無料で資料をダウンロード'に変えると、ユーザーが得られる価値が明確になるため、クリック率が向上する」というように書きます。

ステップ2:テストを設定する

A/Bテストには専用のツールを使います。2026年現在の主要ツールは以下の通りです。

ツール特徴適したケース
[Optimizely](https://www.optimizely.com/products/experiment/web-experimentation/)エンタープライズ向け。高度な統計エンジンとパーソナライゼーション機能大規模サイト・多変量テスト
[VWO](https://vwo.com/)直感的なUI。ヒートマップ・セッション録画も統合中小企業・初めてのA/Bテスト
[AB Tasty](https://www.abtasty.com/)AIによるトラフィック自動配分。サーバーサイドテストにも対応マーケター主導で回す運用
[Google タグマネージャー + GA4](https://support.google.com/analytics/answer/9366791?hl=ja)無料で利用可能。GA4イベント計測と連携予算を抑えたい場合

※ 以前はGoogle Optimizeが無料A/Bテストツールの定番でしたが、2023年9月にサービス終了しています。

テスト設定で重要なのはトラフィックの配分です。A:B = 50:50が基本ですが、リスクを抑えたい場合は80:20(現行80%、変更案20%)から始めて、効果が見えたら配分を変更するアプローチもあります。

ステップ3:十分なデータが溜まるまで待つ

A/Bテストで最もよくある失敗は、データが不十分な段階で結論を急ぐことです。2〜3日で「Bのほうが良さそうだ」と判断して切り替えてしまうケースが少なくありません。

統計的に信頼できる結果を得るには、一般的に各バリエーションに少なくとも100コンバージョン(または数千PV)が必要です。サンプルサイズの目安はEvan Millerのサンプルサイズ計算ツールで事前に算出できます。

テスト期間は最低2週間を確保してください。曜日による変動を吸収するために、丸1週間×2サイクル分のデータが必要だからです。

「早期停止」の誘惑に注意してください。 テスト開始直後にBが大幅にリードしていても、それはサンプル数が少ないために起こる偶然のばらつきです。Optimizelyの統計エンジン解説では、この「のぞき見問題(peeking problem)」への対策として、テスト開始前に終了条件を決めておくことを推奨しています。

ステップ4:結果を判定し、次のテストを計画する

テスト終了後、統計的有意性(p値 < 0.05、つまり95%以上の信頼度)を確認します。有意差が出ていれば勝ちパターンを採用し、出ていなければ「差がない」と判断して別の要素をテストします。

頻度主義 vs ベイズ統計: 従来のA/Bテストはp値ベースの頻度主義的アプローチが主流でしたが、近年はベイズ統計を採用するツールが増えています。ベイズアプローチでは「Bが勝つ確率は92%」のように直感的な結果が得られ、テスト途中でも解釈しやすいというメリットがあります。VWOやOptimizelyはベイズ統計を採用しています。

重要なのは、A/Bテストは1回で終わりではなく、継続的な改善サイクルとして回すことです。1つのテストが終わったら、その結果をもとに新しい仮説を立て、次のテストを計画します。優秀な組織は年間50〜100本のテストを回し、1〜2%ずつCVRを積み上げています。

よくある失敗とその回避策

同時に複数の要素を変えてしまう

見出しとCTAボタンと画像を同時に変更すると、どの変更が効果をもたらしたのか判別できません。1回のテストで変更するのは1要素だけにしてください。

複数要素を同時にテストしたい場合は「多変量テスト(MVT)」という別の手法を検討しましょう。ただし、MVTは各組み合わせに十分なトラフィックが必要なため、月間PVが数万以上のサイトでないと実用的ではありません。

期間中にページを変更する

テスト期間中に「やっぱりBのテキストをもう少し変えたい」と途中変更すると、データの一貫性が失われます。テストが終わるまでは何も触らないルールを徹底してください。

「信じたい結果」を採用する

テストの結果、自分が推した案Bが負けていたとしても、データに基づいた判断を優先してください。「でもBのほうがデザインが良い」という主観は、コンバージョン率の前では意味を持ちません。

セグメントを無視する

全体では差がなくても、スマートフォンユーザーだけで見るとBが圧勝しているケースがあります。デバイス別・流入元別・新規/リピーター別など、主要セグメントでの結果も必ず確認しましょう。GA4のセグメント分析機能を活用すると、こうした掘り下げが容易になります。

まとめ

A/Bテストの本質は、「良さそうな改善案」を「本当に良いと証明された改善案」に変える手法です。

まずは来週、自社のLPで最もコンバージョン率が気になるページを1つ選び、CTAボタンのテキストだけを変えたA/Bテストを設定してみてください。2週間後には、データに基づいた最初の改善判断ができるようになります。