|
|
|
| Возник такой вопрос: сильно я ли уменьшу нагрузку на базу данных, если буду производить запросы к ней пачками.
К примеру, у меня есть скрипт, который парсит какие-то данные. Ему нужно проверить, изменились ли значения полей у меня в таблице и, если да, обновить их. Фактически, для каждой новой порции таких данных я провожу выборку данных, сравниваю с новыми и обновляю, если нужно.
А будет ли лучше, если я буду делать запросы не сразу, а собирая данные в пакет, скажем, по 10 штук? Таким образом выбирая не 1 запись, а сразу 10 и потом обрабатывая их. | |
|
|
|
|
|
|
|
для: Sturmvogel
(26.09.2012 в 13:07)
| | Будет лучше, если вы будете отправлять сразу UPDATE, ничего не проверяя. Поля с совпадающими значениями будут отсеяны сервером БД автоматом. Можете для проверки выполнить какое-либо обновление с заведомо неизмененными данными, а после этого посмотреть mysql_affected_rows(). Он будет равен 0.
_______________
[UPD] Ничего не проверяя - это я конечно перегнул. Я имел ввиду не проверяя на изменение значений. | |
|
|
|
|
|
|
|
для: Sfinks
(26.09.2012 в 13:51)
| | Т.е. в моем случае лучше всего использовать INSERT .... ON DUBLICATE KEY UPDATE...? | |
|
|
|
|
|
|
|
для: Sturmvogel
(26.09.2012 в 17:57)
| | Я понятия не имею, что лучше именно в вашем случае, так как ничего о вашем случае не знаю. Тут нужно смотреть и на структуру таблиц, и на логику обновления базы, и на наличие ключей итдитп. И это уже вопросы для раздела MySQL, а не PHP. | |
|
|
|