К проблемам использования журналов относятся следующие.
Кеширование страниц ISP. Проблема кеширования заключается в том, что при получении копии страницы ISP при последующих запросах передает именно ее, а в файлы журнала веб-сайта записи об этих запросах не заносятся.
Поисковые роботы. С увеличением популярности поисковых серверов поисковые боты (search bot) зачастую просматривали сайты целиком, оставляя записи в вебжурналах, хотя пользователь их и не посещал. Эти записи учитывались в показателях. Хотя обращения робота можно отфильтровать, с учетом скорости появления новых роботов сделать это довольно трудно (кроме того, со временем они становятся все более интеллектуальными).
Уникальность посетителей. С увеличением количества пользователей, применяющих динамические IP-адреса и приходящих через прокси-серверы, стало сложно выявлять индивидуальных посетителей, т.е. определять их уникальность. Производители попробовали прибавлять к IP-адресу идентификатор агента пользователя (операционная система пользователя и браузер), но это не оправдало ожиданий. Если сайт устанавливает файлы cookie, использовались они, но на это соглашались не все отделы информационных технологий.
По этим и некоторым другим причинам в качестве нового стандарта для сбора данных веб-сайтов стали использоваться дескрипторы JavaScript (JavaScript tag) (несколько строк кода JavaScript), что значительно упростило сбор данных: несколько строк кода JavaScript добавляются на каждую страницу и срабатывают при ее загрузке, посылая данные серверу сбора данных. Вот пример дескриптора JavaScript, используемого Crazy Egg, новым производителем в области веб-аналитики.