robots.txt 設置したら更新していなくても必ず確認すべきこと。

慌てた様子で「Search Console に大量のエラーが出た!」と連絡をいただいたことがあります。それも、今までに複数社から何度か。(一応、いずれもそれをやらかしたのは当社ではありません。)
色々な原因が考えられそうですが、大体は1つのファイルに原因があるとみた方がいいでしょう。いくつかのファイルに問題が発生したのであれば、大量というほどのエラーは出ないわけですし。

そこで最も怪しいのは、robots.txt か、.htaccess です。これらは、意図的に更新する以外触ることがないファイルですし、内容を間違えると、サイト全体に影響を及ぼすので、最も重大事故を起こしやすいファイルと言えます。『パーミッションを間違えた。』『テスト環境のファイルをアップした。』『文字コードを間違えて保存した。』そして、それを本番機にアップして発生するのが致命的な問題です。これらの気づきにくいやらかしにまずは目を向けましょう。
ちなみに、robots.txt が存在しているのに、ステータスコード 200 以外のエラー(500系など)を返す状態になっていると、サイト全体を Google が無いもの(正確には問題があるもの)として扱ってしまいます。
,htaccess の不具合は、多くの場合ブラウザでアクセスした時点で明らかにエラーと分かる画面が出ますので、robots.txt に比べると気づきやすいですが、目視確認していないなんて事もざらにありますしね。。。

いずれにしても、驚くような問題が出た場合は、普段触らない、あるいは、触ったと思っていないファイルに原因があったりするものですので、重大エラー発生時の確認マニュアルなどでまとめておくことをお勧めします。