ウェブサイト検索

Linux デスクトップから Web サイトのリンク切れを確認する


壊れたリンクはどの Web サイトにとっても致命的であり、何としてでも削除する必要があります。悪いことに、それは言うのは簡単だということです。 1,000 を超える記事が含まれる Web サイトを運営しており、各投稿に少なくとも 3 つのリンクが含まれている場合、どのリンクが機能しなくなっているかをどのように確認できるでしょうか?

これに対する解決策はたくさんあります。 WordPress を使用している場合は、壊れたリンク チェッカー プラグインをインストールして、すべての投稿をスキャンして壊れたリンクを見つけることができます。これの欠点は?明日がないかのように CPU パワーを消耗します。専用サーバーを使用している場合でも、これは CPU リソースを活用する最適な方法ではありません。

次の解決策は、W3C リンク チェッカーなどのオンライン ツールを使用して、サイトをスキャンしてリンク切れがないか確認することです。これらのツールの問題は、無料のものには豊富なオプションが付属しておらず、優れたツールは高価であることです。

この記事で私が使用している最後の解決策は、デスクトップ アプリをインストールし、デスクトップからスキャンを実行することです。

LinkChecker は、GPL ライセンスを取得した無料の Web サイト検証ツールであり、Web ドキュメントまたは完全な Web サイト内のリンクをデスクトップから直接チェックします。 Windows、Mac、Linux で動作します。

インストール

Linux (Ubuntu) で動作させるには、ダウンロード ページに移動して 2 つの deb パッケージをダウンロードします: linkchecker_8.2-1_amd64.deb (または 32 ビット マシンを使用している場合は i386 バージョン)およびlinkchecker-gui_8.2-1_all.deb

: この投稿の現在のバージョンは 8.2-1 です。新しいバージョンが利用可能な場合は、それを入手する必要があります。

両方の .deb ファイルを (ダブルクリックして) システムにインストールします。

: LinkChecker は Ubuntu リポジトリでも入手できますが、最新バージョンではありません。古いバージョンを使用しても構わない場合は、次のコマンドを使用してインストールできます。

sudo apt-get install linkchecker linkchecker-gui

リンクチェッカーを実行します。これがご覧のとおりです。

ウェブサイトの URL を入力して [スタート] ボタンを押すだけです。その後、スキャンが続行されます。大量のコンテンツとリンクを含む大規模な Web サイトの場合、スキャンが完了するまでに最大で数時間かかることがあります。

スキャンが完了すると、各リンクの結果と、有効な URL の数、無効な URL、警告などの概要が表示されます。各エントリをクリックすると、リンクの情報が表示されます。 URL の長さ、ダウンロード時間、ファイル サイズ、画像の数など、およびリンクに関する実際の問題 (存在する場合) などです。

構成

オプション設定では、スキャンの再帰的な深さを変更できます。 「-1」(デフォルト)値は、サイト全体をスキャンすることを意味します。また、文字列または URL フラグを設定して、特定の URL が検出された場合に警告を表示したり無視したりすることもできます。

ブラウザのブックマーク ファイルをアップロードして、ブックマーク内にあるすべての Web サイトをスキャンさせることもできます。

輸出中

スキャンが完了したら、結果を (HTML 形式で) 保存して、後で表示できます。

結論

リンク チェッカー ツールはたくさんありますが、私は個人的には他のツールよりもこの Python ベースの LinkChecker アプリを好みます。軽量でクロスプラットフォーム互換性があるだけでなく、必要な機能も備えています。最良の点は、定期的に更新され、無料であることです。

サイト内のリンク切れをチェックするためにどのツールを使用していますか?

画像クレジット: BigStockPhoto のチェーン

関連記事