У меня есть таблица с очень большими данными в кассандре. Я пытаюсь прочитать данные в разделе с помощью драйвера dse через программу hadoop mapreduce. Для некоторого раздела может быть более 100 миллионов строк в разделе, и когда я пытаюсь прочитать эти разделы, я получаю исключение OperationTimedOutException.
Ниже приведена трассировка стека -
com.datastax.driver.core.exceptions.OperationTimedOutException: [X.X.X.X/X.X.X.X:XXXX] Timed out waiting for server response
at com.datastax.driver.core.exceptions.OperationTimedOutException.copy(OperationTimedOutException.java:35)
at com.datastax.driver.core.exceptions.OperationTimedOutException.copy(OperationTimedOutException.java:17)
at com.datastax.driver.core.DriverThrowables.propagateCause(DriverThrowables.java:28)
at com.datastax.driver.core.ArrayBackedResultSet$MultiPage.prepareNextRow(ArrayBackedResultSet.java:304)
at com.datastax.driver.core.ArrayBackedResultSet$MultiPage.isExhausted(ArrayBackedResultSet.java:260)
at com.datastax.driver.core.ArrayBackedResultSet$1.hasNext(ArrayBackedResultSet.java:134)
at com.datastax.driver.core.ArrayBackedResultSet.all(ArrayBackedResultSet.java:123)
Я пробовал ниже вещи, и это не сработало для меня-
- setFetchSize() на большое число, например 250000.
- setReadTimeoutMillis() на 30 секунд
Любая помощь приветствуется :)