Докато се опитвах да заредя голяма (~5 GB) таблица на Postgres в pandas
с pandas.read_sql("SELECT * FROM mytbl",conn)
, получих грешка в паметта и задачата се провали. Какъв е правилният начин да направите това?
Бих могъл да постигна желания резултат, като първо копирам данните в локален CSV файл (вижте Експортирайте таблицата на Postgres в CSV файл със заглавия), след което я заредете в pandas
с pandas.read_csv
. Благодаря!
read_csv
няма ли да даде и MemoryError? - person joris   schedule 28.01.2015chunksize
наread_sql
. Вижте пример тук: pandas.pydata.org/pandas-docs/stable/ io.html#querying. Не съм сигурен, че това ще го реши, но това ще направи заявката на парчета и можете да ги агрегирате или обедините в pandas - person joris   schedule 28.01.2015