Nie wiadomo, jaką metodologią posłużono się przy badaniach: czy chodzi o realne, świadome wejścia dzieci na strony pornograficzne, czy o przypadkowe przekierowania, reklamy, działanie algorytmów lub błędy pomiarowe. Brakuje informacji o źródłach danych, doborze próby i definicji „kontaktu z treścią”. W naukach społecznych i badaniach internetu takie uproszczenia są niedopuszczalne, a mimo to stały się politycznym argumentem uzasadniającym daleko idącą ingerencję w sferę wolności słowa.

Krytycy wskazują, że ochrona dzieci została użyta jako wygodny parawan dla rozwiązań, które w praktyce nie ograniczają się do walki z pornografią. Wprowadzenie DSA uruchomiłoby mechanizmy pozwalające na szerokie filtrowanie i usuwanie treści uznanych za „szkodliwe” lub „nielegalne”, często bez decyzji sądu i bez realnej drogi odwoławczej, na bazie kaprysu urzędnika – jak u Orwella. Oznacza to, że pod hasłem bezpieczeństwa najmłodszych próbuje się rozszerzać narzędzia kontroli debaty publicznej, obejmujące media, publicystów i zwykłych użytkowników internetu.

Na ten aspekt zwrócił uwagę prezydent Karol Nawrocki, który zawetował ustawę wdrażającą DSA do polskiego porządku prawnego. W jego ocenie państwo nie powinno tworzyć systemu, w którym obywatel, chcąc bronić swojego prawa do wypowiedzi, musi mierzyć się z aparatem urzędniczym.

Tymczasem realne źródła problemu pornografii wśród młodzieży są znane od lat i nie mają wiele wspólnego z cenzurą polityczną. To przede wszystkim: wczesny i niekontrolowany dostęp dzieci do smartfonów, agresywne algorytmy platform społecznościowych, brak skutecznych narzędzi kontroli rodzicielskiej oraz niewystarczająca edukacja cyfrowa. Żadne z tych wyzwań nie zostanie rozwiązane przez ograniczanie wolności słowa dorosłych użytkowników internetu.

Coraz więcej obserwatorów zwraca też uwagę, że Bruksela łączy dwie różne sfery: ochronę dzieci, która powinna opierać się na odpowiedzialności rodziców, szkół i platform, oraz regulację przestrzeni publicznej, która dotyczy pluralizmu poglądów i swobody debaty. Takie podejście grozi stworzeniem precedensu, w którym każda kolejna forma kontroli treści byłaby usprawiedliwiana „wyższym dobrem”, bez rzetelnej analizy skutków ubocznych.