<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Hey Khmer team,<div><br></div><div>I’ve been working through your khmer protocols using some metagenomic data that I have and I’ve just completed the part where you run ‘do-partition.py’ to generate the *.part files. The only thing is though that looking at the terminal output from this script it’s wanting to create literally millions of partitions! Have you guys ever seen this kind of thing before?</div><div><br></div><div>I should point out though that my data comes from deep sea sediment so it’s more complex than what this protocol was designed for. I found the following link on the khmer documentation (<a href="http://khmer.readthedocs.org/en/latest/partitioning-big-data.html">http://khmer.readthedocs.org/en/latest/partitioning-big-data.html</a>) that talks about big datasets. Is this still the preferred workflow for big datasets or do you have some new tricks up your sleeve.</div><div><br></div><div>Thanks</div><div>Connor</div></body></html>