Перейти к содержимому

MOAB

- - - - -

Время ответа сервера


  • Войдите, чтобы ответить
Сообщений в теме: 14

#1 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

Отправлено 16 Ноябрь 2016 - 12:39

Периодически проверяю свои сайты сервисом гула - https://developers.g...speed/insights/ . Где-то с сентября началась выдаваться ошибка "Сократите время ответа сервера. По результатам тестирования время ответа вашего сервера составило 3,3 секунды."
Хостинг не менял за всё это время.
Написал в службу поддержки и вот их ответ:

Цитата

Время ответа сервера для проверяющего ресурса складывается из двух частей, первая - непосредственно время генерации страницы, а второе - время прохождения этого ответа до сервиса.

Генерация страницы сервером происходит быстро - это можете видеть и Вы сами, просто открыв ее в браузере. Однако время получения ответа сервисом достаточно велико - заняло несколько секунд:

[b][15/Nov/2016:19:35:45 +0300] 0.150 3.099 200 66.249.93.143 spb-*****.ru GET / HTTP/1.1 "Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko; Google Page Speed Insights) Chrome/27.0.1453 Mobile Safari/537.36" "-" 10146

Со своей стороны мы не можем каким-либо образом воздействовать на второе значение, поскольку оно зависит от времени получения пакетов принимающей стороной.

Можете перевести, что это означает? Пакеты от моего хостинга до сервиса гугла идут очень долго, так?

#2 madcap

madcap

    Мастер

  • Старая гвардия
  • PipPipPipPip
  • 709 сообщений
591
  • ИзМосквы

Отправлено 16 Ноябрь 2016 - 13:28

Выражаясь языком хостинговой поддержки - да.
А по сути хостеры частенько в таких случаях лукавят.
Попробуйте посмотреть скорость загрузки (и генерации страницы) другими сервисами.
Поставьте какой-нить измерительный плагин в браузер - так будет ещё нагляднее.
Если у Вас Джумла - включите режим отладки и посмотрите данные по загрузке внизу страницы сайта под футером.

p.s. По моим наблюдениям чаще всего корень зла кроется в долгой генерации страницы из-за недостаточно оптимальной настройки базы данных.

#3 azsx

azsx

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 4 508 сообщений
2 811

Отправлено 16 Ноябрь 2016 - 13:43

Цитата

Генерация страницы сервером происходит быстро - это можете видеть и Вы сами, просто открыв ее в браузере.
Вы сами сайт в своём браузере открывали? Там сколько секунд? Кеш в браузере очистите сперва.

#4 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

TC Отправлено 16 Ноябрь 2016 - 13:47

Просмотр сообщенияmadcap (16 Ноябрь 2016 - 13:28) писал:

Выражаясь языком хостинговой поддержки - да.
А по сути хостеры частенько в таких случаях лукавят.
Попробуйте посмотреть скорость загрузки (и генерации страницы) другими сервисами.
Поставьте какой-нить измерительный плагин в браузер - так будет ещё нагляднее.
Если у Вас Джумла - включите режим отладки и посмотрите данные по загрузке внизу страницы сайта под футером.

p.s. По моим наблюдениям чаще всего корень зла кроется в долгой генерации страницы из-за недостаточно оптимальной настройки базы данных.
Оптимальную настройку базы данных и пхп-код я уже правил (годик назад). Реально стало лучше. После этого глобально ничего не менял. Да и тестировал почти пустую страницу 1.php без подключения к базе - результат такой же.
На второе письмо хостинг написал обнадеживающую фразу

Цитата

"Нам потребуется некоторое время для исследования Вашей задачи. По окончании работ мы свяжемся с Вами в рамках текущей переписки."

Плагином в браузере - я не нашел проблему. Да и внешне сайт нормально грузится. По метрике (данные за неделю, усредненные: ответ сервера главной страницы - 0,2 сек,
время загрузки и парсинга хтмл - 0,546сек
Время до загрузки DOM - 1,8 сек (не знаю, чт оэто такое)
редиректы - 1 сек (в моб версии тут делаю редирект.. не адаптивная верстка)
Время до отрисовки - 0,7сек
Вроде цифры небольшие

Просмотр сообщенияazsx (16 Ноябрь 2016 - 13:43) писал:

Вы сами сайт в своём браузере открывали? Там сколько секунд? Кеш в браузере очистите сперва.
Открывал) вроде быстро. FF говорит (там где "исследовать элемент и сеть") около 2сек. То есть вроде всё норм.

#5 azsx

azsx

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 4 508 сообщений
2 811

Отправлено 16 Ноябрь 2016 - 13:58

Цитата

Да и внешне сайт нормально грузится.
а хостер в рф стране?
может буржуям трафик плохо отдают, потестить от буржуев.

#6 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

TC Отправлено 16 Ноябрь 2016 - 14:14

Просмотр сообщенияazsx (16 Ноябрь 2016 - 13:58) писал:

а хостер в рф стране?
может буржуям трафик плохо отдают, потестить от буржуев.
Хостер в Санкт-Петербурге. Потестить от буржуев - можно)

#7 angr

angr

    Продвинутый

  • S.E.Syndicate
  • PipPipPip
  • 487 сообщений
863

Отправлено 16 Ноябрь 2016 - 14:17

здесь: https://www.host-tracker.com/ можете по миру потестить

#8 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

TC Отправлено 16 Ноябрь 2016 - 18:09

Службе поддержке - респект. Быстро отвечают и быстро подправили)
Вот их ответ

Цитата

Низкая скорость доступа именно к сайту ****.ru со стороны сервиса была обусловлена тем, что, по Вашему обращению, направленному ранее, отдача всей статики была переведена на веб-сервер Apache, таким образом, при единичном запросе к странице сайта генерировалось множество других запросов - к css, js и т.д.

Ввиду особенностей значения user-агента сервиса он расценивался нашей системой как робот поисковой системы, к которым выдвигаются некоторые ограничения, в частности - не более запроса в три секунды. При их превышении часть запросов блокировалась. Отдельно отметим, что для посетителей, которые не соответствуют критерию , определяющему робота, такого ограничения нет.

Мы скорректировали действие фильтра для сервиса Google Page Speed Insights, проверьте, пожалуйста.
Тему можно закрывать)

#9 azsx

azsx

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 4 508 сообщений
2 811

Отправлено 16 Ноябрь 2016 - 18:13

Цитата

Ввиду особенностей значения user-агента сервиса он расценивался нашей системой как робот поисковой системы, к которым выдвигаются некоторые ограничения, в частности - не более запроса в три секунды. При их превышении часть запросов блокировалась.
чо, палите имя хостера на котором нельзя хоститься никогда.

#10 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

TC Отправлено 16 Ноябрь 2016 - 18:20

Просмотр сообщенияazsx (16 Ноябрь 2016 - 18:13) писал:

чо, палите имя хостера на котором нельзя хоститься никогда.
Ну я всегда там размещаюсь. А имя этого хостинга - спринтхост.
Порадовала служба поддержки, которая быстро исправила ситуацию. Другие обычно отмалчиваются и не признаются, если у них баг.

#11 azsx

azsx

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 4 508 сообщений
2 811

Отправлено 16 Ноябрь 2016 - 18:25

protector, вы прикалываетесь? Или я что то где то не так прочитал?
Хостер режет траф от поисковых роботов!
Многие хостеры режут траф от http спамеров, но старательно включают поисковики в исключения. А они наоборот. Это же плохо, не?

#12 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

TC Отправлено 16 Ноябрь 2016 - 18:34

Просмотр сообщенияazsx (16 Ноябрь 2016 - 18:25) писал:

protector, вы прикалываетесь? Или я что то где то не так прочитал?
Хостер режет траф от поисковых роботов!
Трафик людей, которые пришли с ПС, не режется. По крайней мере, посещение нормальное с сайта идет. Позиции тоже нормальные.
Они запрещают роботам за 1 минуту скачивать 1000 страниц. В гугл.вебмастере, кстатие есть функция по ограничению обращения робота гугла к сайту.

#13 azsx

azsx

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 4 508 сообщений
2 811

Отправлено 16 Ноябрь 2016 - 18:50

protector, теперь всё понятно. Огромное спасибо, что сказали имя хостера.

#14 madcap

madcap

    Мастер

  • Старая гвардия
  • PipPipPipPip
  • 709 сообщений
591
  • ИзМосквы

Отправлено 16 Ноябрь 2016 - 19:10

Возможно позиции сайтов были бы лучше, если бы так не резалась отдача.
Да и про настройки в сервисе для вебмастеров не все знают.
Более того - далеко не факт, что у них идеальная фильтрация на "плохих роботов", "хороших роботов" и "людей".

#15 protector

protector

    Почетный

  • Основатель
  • PipPipPipPipPip
  • 2 478 сообщений
1 128
  • ИзСанкт-Петербурга

TC Отправлено 16 Ноябрь 2016 - 19:18

Просмотр сообщенияmadcap (16 Ноябрь 2016 - 19:10) писал:

Возможно позиции сайтов были бы лучше, если бы так не резалась отдача.
Да и про настройки в сервисе для вебмастеров не все знают.
Более того - далеко не факт, что у них идеальная фильтрация на "плохих роботов", "хороших роботов" и "людей".
Ну позиции топ 1-3). На мой взгляд великолепные по вч.
А разве у других хостингов нет защиты от запрашивания 1000 страниц роботами одновременно? Ведь тогда весь сайт повиснит, или даже сервер с несколькими сайтами.



Похожие темы


Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных



© 2017 SMO&SEO форум «WEBIMHO» — продвижение и создание сайтов, интернет-маркетинг

По вопросам рекламы на форуме и цены на рекламу
Все материалы SEO форума разрешены к копированию только с установкой гиперактивной ссылки на webimho.ru,
тем, кто этого не сделает, мы оторвем руки и ноги и поменяем местами,
а когда выйдем из тюрьмы, опять оторвем и опять поменяем.


Россия, г. Москва

Мы в соцсетях: twitter | вконтакте | facebook | livejournal