Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

memory error, after processing 277 Mhits #2

Closed
emx77 opened this issue Apr 5, 2018 · 8 comments
Closed

memory error, after processing 277 Mhits #2

emx77 opened this issue Apr 5, 2018 · 8 comments

Comments

@emx77
Copy link
Contributor

emx77 commented Apr 5, 2018

windows, version, python 2, 20180504

D:\Data\2018\M4I\20180219\beam_stop>python D:\Software\python\tpx3HitParser\tpx3
HitParser.py --hits half_beam_stop_10s_40mhit_hits.h5 -C -o half_beam_stop_10s_4
0mhit_clusters.h5 --overwrite
2018-04-04 15:48:48,076 - INFO - find - Started finding clusters
277Mhits [6:33:41, 11.5khits/s]2018-04-04 22:22:31,464 - INFO - find - Finish
ed finding 43351228 clusters from 277172916 hits in 23623 seconds on 4 cores ( 1
1733 hits / second )
Traceback (most recent call last):
File "D:\Software\python\tpx3HitParser\tpx3HitParser.py", line 97, in

sys.exit(main())

File "D:\Software\python\tpx3HitParser\tpx3HitParser.py", line 70, in main
cluster_info, cluster_matrix = clusters.find_clusters(hits)
File "D:\Software\python\tpx3HitParser\clusters\find.py", line 65, in find_clu
sters
return np.array(cluster_info), np.array(cluster_matrix)
MemoryError

@PaulVanSchayck
Copy link
Member

Please try version 0.8.0, it includes improvement for chunked write to the hdf5 file

@emx77
Copy link
Contributor Author

emx77 commented Apr 6, 2018 via email

@PaulVanSchayck
Copy link
Member

Mooi om te horen!

Jammer dat je --store_clusters bent vergeten, want wat er dus nu gebeurt is dat ie alles opslaat en als --store_clusters niet is geset, dan verwijderd ie alles.

Ik heb trouwens wel eens gezien dat je 8 cores hebt. Je kan naar 8 cores gebruiken met --cores 8

@emx77
Copy link
Contributor Author

emx77 commented Apr 6, 2018 via email

@PaulVanSchayck
Copy link
Member

Van hits naar clusters doet ie dat zeker niet. De hits worden chunks gewijs geladen.

Van clusters naar events doet ie dat zeker niet voor de CNN methode. Voor de centroiding methode mogelijk wel. Hangt er een beetje af hoe een bepaalde library functie werkt.

Ik denk dat je centroiding aan het uitproberen bent he? Zie je het geheugen sterk toenemen voordat je de progress bar ziet?

@emx77
Copy link
Contributor Author

emx77 commented Apr 6, 2018 via email

@PaulVanSchayck
Copy link
Member

OK.. ik zal dat stukje binnenkort ook eens aanpassen, dat is niet zo lastig om dat ook stapsgewijs te laten lezen.

Er zit trouwens na de localisatie stap en voor de storing stap een proces wat redelijk lang kan duren (15 minuten+) en geen indicatie van voortgang geeft. Ik moet dit proces nog een keer optimaliseren.

@PaulVanSchayck
Copy link
Member

Dat is nu aangepast dat de clusters chunk voor chunk ingelezen worden. En de stap na localisatie is nu ook geoptimaliseerd.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants