Я знаю, но ведь у меня время берется машинное и с частотой 50 миллисекунд проверяется разность времени между началом запуска таймера и текущим временем. Если установить в 1000 миллисекунд, то не отображается значение в 59 секунд, так как первый запуск функции произойдет через 1 секунду + погрешность.
Проблема только в первой секунде, в дальнейшем все хорошо. Она у меня получается 50 миллисекунд + время исполнения кода. Мне необходимо установить setTimeout() с задержкой определенной эмпирическим путем. Если время исполнения кода + 50 миллисекунд больше 500, то значение округляется вверх и значение 59 не выводится. Время исполнения кода всегда разное. Запутался.
Придется жертвовать первой секундой?
Последний раз редактировалось leshiple, 24.12.2014 в 22:51.
|