robots.txt で想定外のパラメータは必ず全て除外しましょう。

facebook などの SNS からのアンカーなどは、URLに対して勝手にパラメータが付いてきますし、あるいは、知らないところでパラメータ付の URL でリンクされているかもしれません。
すると、当然ながら、Google Analytics や Search Console に、パラメータが付いていない URL と、パラメータが付いている URL が合算されることなく、別々にカウントされてしまいます。
これを容認していると、多少なら気にならないかもしれませんが、アクセスが増えていくに従い、アクセス解析を行う上で無視できない状況になってくることは火を見るより明らかです。

できるだけ早急に、URL の正規化を行っておくことをお勧めします。具体的には、タイトルの通り、robots.txt を使う方法と、もう一つは、HTML の canonical 属性を使う方法があります。

robots.txt でパラメータを全てクロール対象外にする。

「Disallow: /*?」のように記載すれば、全てのパラメータ付 URL が除外されます。必要なパラメータだけ、Allow: で指定するホワイトリスト形式にしましょう。

canonical を全てのページで明記し、パラメータ全てを一つの URL に収れんさせる。

全ての HTML 出力に対して canonical 属性で正規 URL を表記しましょう。そうすれば、どんなパラメータが付いていようとも、全て指定した正規 URL で認識されます。PHP などサーバーサイドスクリプトで共通関数を作るなり、CMS を導入していればプラグインを用いるなどすれば、手書きする必要も無いですね。

ただし、2 つの方法には、それぞれ以下の様な注意すべき点があります。
robots.txt は、ホワイトリスト形式になるので管理運用が抜け漏れなく行える前提が必要です。複数のプロモーションチームなどがあると、誰かが勝手にパラメータ付の URL を発行していて、それが個別にカウントされずに困るといったことがあり得ます。
一方、canonical の方法には記載漏れが常に起こりえますし、サイトの構造によってはシステム的な一括挿入出力ができず、一部が別ルールや手書きになる可能性もありえます。これも抜け漏れの原因となるでしょう。

どのサイトも脊髄反射的に robots.txt も canonical も使っていたりしますが、上記の様な向き不向きがあるため、サイト構造と運用実際を鑑みて、時にいずれかを採用しないことも賢い選択と言えます。
両方ともにやらないというのは、あまりお勧めしませんね。