Аз съм програмист на Perl с някои хубави скриптове, които извличат HTTP страници (от текстов файл - списък с URL адреси) с cURL и ги записват в папка.
Броят на страниците, които трябва да получите, обаче е десетки милиони. Понякога скриптът се проваля на номер 170 000 и трябва да стартирам скрипта отново ръчно. Той автоматично чете URL адреса и вижда дали има изтеглена страница и пропуска. Но с няколкостотин хиляди все още са необходими няколко часа, за да се върнете обратно до мястото, където сте спрели. Очевидно това няма да се получи в крайна сметка.
Казаха ми, че вместо да записвам в текстов файл, който е труден за търсене и промяна, трябва да използвам база данни. Не знам много за базите данни, просто се забърках с MySQL на училищен сървър преди година. Просто имам нужда от способността да добавям милиони редове и няколко статични колони, да търся/модифицирам една бързо и да правя всичко това локално в мрежа (или на един компютър, ако е трудно). И разбира се, трябва да осъществя достъп до тази база данни с помощта на perl.
Откъде да започна? Какво трябва да изтегля, за да стартирам сървър под Windows? Кои Perl модули трябва да използвам? (Използвам дистрибуция ActiveState)