Я пытаюсь проанализировать большие дампы данных для своего семантического веб-проекта, который я создал с помощью eclipse/jena. Я использую базу данных tdb, которая отлично работает для 2 ГБ, но у меня возникают проблемы с памятью при работе с файлами размером более 6 ГБ. Моя цель — извлечь все объекты и субъекты предикатов из источника данных (и записать их в файлы json). Есть ли способ, которым я могу напрямую запрашивать данные tdb, не загружая все в модель? Также: сохраняет ли model.read в следующем коде все данные в памяти?
HttpSession session = request.getSession();
session.setAttribute("dataSource", data);
ServletContext servletContext = request.getServletContext();
String tdbPath = servletContext.getRealPath("/tdb");
File dir = new File(contextPath);
Dataset dataset = TDBFactory.createDataset(tdbPath);
Model model = dataset.getDefaultModel();
InputStream str = FileManager.get().open(data);
model.read(str,null);