Literatura académica sobre el tema "MPI"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "MPI".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "MPI"
Taniguchi, Yusuke, Nao Suzuki, Kae Kakura, Kazunari Tanabe, Ryutaro Ito, Tadahiro Kashiwamura, Akie Fujimoto et al. "Effect of Continuous Intake of Lactobacillus salivarius WB21 on Tissues Surrounding Implants: A Double-Blind Randomized Clinical Trial". Life 14, n.º 12 (22 de noviembre de 2024): 1532. http://dx.doi.org/10.3390/life14121532.
Texto completoFleming, Richard. "Reno Cardiologist Confirms FMTVDM – Opening New Opportunities for Nuclear Cardiologists". Clinical Medical Reviews and Reports 1, n.º 1 (19 de diciembre de 2019): 01–04. http://dx.doi.org/10.31579/2690-8794/001.
Texto completoOverbeek, Femke C. M. S., Jeannette A. Goudzwaard, Judy van Hemmen, Rozemarijn L. van Bruchem-Visser, Janne M. Papma, Harmke A. Polinder-Bos y Francesco U. S. Mattace-Raso. "The Multidimensional Prognostic Index Predicts Mortality in Older Outpatients with Cognitive Decline". Journal of Clinical Medicine 11, n.º 9 (23 de abril de 2022): 2369. http://dx.doi.org/10.3390/jcm11092369.
Texto completoHilbrich, Tobias, Matthias S. Müller y Bettina Krammer. "MPI Correctness Checking for OpenMP/MPI Applications". International Journal of Parallel Programming 37, n.º 3 (22 de abril de 2009): 277–91. http://dx.doi.org/10.1007/s10766-009-0099-4.
Texto completoBabbar, Rohan, Matteo Ravasi y Yuxi Hong. "PyLops-MPI - MPI Powered PyLops with mpi4py". Journal of Open Source Software 10, n.º 105 (7 de enero de 2025): 7512. https://doi.org/10.21105/joss.07512.
Texto completoChiang, Y. C. y Y. T. Kiang. "Genetic analysis of mannose-6-phosphate isomerase in soybeans". Genome 30, n.º 5 (1 de octubre de 1988): 808–11. http://dx.doi.org/10.1139/g88-130.
Texto completoLiu, Feilong, Claude Barthels, Spyros Blanas, Hideaki Kimura y Garret Swart. "Beyond MPI". ACM SIGMOD Record 49, n.º 4 (8 de marzo de 2021): 12–17. http://dx.doi.org/10.1145/3456859.3456862.
Texto completo&NA;. "MPI-5003". Inpharma Weekly &NA;, n.º 1133 (abril de 1998): 9. http://dx.doi.org/10.2165/00128413-199811330-00014.
Texto completoKarwande, Amit, Xin Yuan y David K. Lowenthal. "CC--MPI". ACM SIGPLAN Notices 38, n.º 10 (octubre de 2003): 95–106. http://dx.doi.org/10.1145/966049.781514.
Texto completoLOUCA, SOULLA, NEOPHYTOS NEOPHYTOU, ADRIANOS LACHANAS y PARASKEVAS EVRIPIDOU. "MPI-FT: PORTABLE FAULT TOLERANCE SCHEME FOR MPI". Parallel Processing Letters 10, n.º 04 (diciembre de 2000): 371–82. http://dx.doi.org/10.1142/s0129626400000342.
Texto completoTesis sobre el tema "MPI"
Kamal, Humaira. "FG-MPI : Fine-Grain MPI". Thesis, University of British Columbia, 2013. http://hdl.handle.net/2429/44668.
Texto completoRamesh, Srinivasan. "MPI Performance Engineering with the MPI Tools Information Interface". Thesis, University of Oregon, 2018. http://hdl.handle.net/1794/23779.
Texto completoMassetto, Francisco Isidro. "Hybrid MPI - uma implementação MPI para ambientes distribuídos híbridos". Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-08012008-100937/.
Texto completoThe increasing develpment of high performance applications is a reality on current days. However, the diversity of computer architectures, including mono and multiprocessor machines, clusters with or without front-end node, the variety of operating systems and MPI implementations has growth increasingly. Focused on this scenario, programming libraries that allows integration of several MPI implementations, operating systems and computer architectures are needed. This thesis introduces HyMPI, a MPI implementation aiming integratino, on a distributed high performance system nodes with different architectures, clusters with or without front-end machine, operating systems and MPI implementations. HyMPI offers a set of primitives based on MPI specification, including point-to-point communication, collective operations, startup and finalization and some other utility functions.
Subotic, Vladimir. "Evaluating techniques for parallelization tuning in MPI, OmpSs and MPI/OmpSs". Doctoral thesis, Universitat Politècnica de Catalunya, 2013. http://hdl.handle.net/10803/129573.
Texto completoLa programación paralela consiste en dividir un problema de computación entre múltiples unidades de procesamiento y definir como interactúan (comunicación y sincronización) para garantizar un resultado correcto. El rendimiento de un programa paralelo normalmente está muy lejos de ser óptimo: el desequilibrio de la carga computacional y la excesiva interacción entre las unidades de procesamiento a menudo causa ciclos perdidos, reduciendo la eficiencia de la computación paralela. En esta tesis proponemos técnicas orientadas a explotar mejor el paralelismo en aplicaciones paralelas, poniendo énfasis en técnicas que incrementan el asincronismo. En teoría, estas técnicas prometen múltiples beneficios. Primero, tendrían que mitigar el retraso de la comunicación y la sincronización, y por lo tanto incrementar el rendimiento global. Además, la calibración de la paralelización tendría que exponer un paralelismo adicional, incrementando la escalabilidad de la ejecución. Finalmente, un incremente en el asincronismo proveería una tolerancia mayor a redes de comunicación lentas y ruido externo. En la primera parte de la tesis, estudiamos el potencial para la calibración del paralelismo a través de MPI. En concreto, exploramos técnicas automáticas para solapar la comunicación con la computación. Proponemos una técnica de mensajería especulativa que incrementa el solapamiento y no requiere cambios en la aplicación MPI original. Nuestra técnica identifica automáticamente la actividad MPI de la aplicación y la reinterpreta usando solicitudes MPI no bloqueantes situadas óptimamente. Demostramos que esta técnica maximiza el solapamiento y, en consecuencia, acelera la ejecución y permite una mayor tolerancia a las reducciones de ancho de banda. Aún así, en el caso de cargas de trabajo científico realistas, mostramos que el potencial de solapamiento está significativamente limitado por el patrón según el cual cada proceso MPI opera localmente en el paso de mensajes. En la segunda parte de esta tesis, exploramos el potencial para calibrar el paralelismo híbrido MPI/OmpSs. Intentamos obtener una comprensión mejor del paralelismo de aplicaciones híbridas MPI/OmpSs para evaluar de qué manera se ejecutarían en futuras máquinas. Exploramos como las aplicaciones MPI/OmpSs pueden escalar en una máquina paralela con centenares de núcleos por nodo. Además, investigamos cómo este paralelismo de cada nodo se reflejaría en las restricciones de la red de comunicación. En especia, nos concentramos en identificar secciones críticas de código en MPI/OmpSs. Hemos concebido una técnica que rápidamente evalúa, para una aplicación MPI/OmpSs dada y la máquina objetivo seleccionada, qué sección de código tendría que ser optimizada para obtener la mayor ganancia de rendimiento. También estudiamos técnicas para explorar rápidamente el paralelismo potencial de OmpSs inherente en las aplicaciones. Proporcionamos mecanismos para evaluar fácilmente el paralelismo potencial de cualquier descomposición en tareas. Además, describimos una aproximación iterativa para buscar una descomposición en tareas que mostrará el suficiente paralelismo en la máquina objetivo dada. Para finalizar, exploramos el potencial para automatizar la aproximación iterativa. En el trabajo expuesto en esta tesis hemos diseñado herramientas que pueden ser útiles para otros investigadores de este campo. La más avanzada es Tareador, una herramienta para ayudar a migrar aplicaciones al modelo de programación MPI/OmpSs. Tareador proporciona una interfaz simple para proponer una descomposición del código en tareas OmpSs. Tareador también calcula dinámicamente las dependencias de datos entre las tareas anotadas, y automáticamente estima el potencial de paralelización OmpSs. Por último, Tareador da indicaciones adicionales sobre como completar el proceso de migración a OmpSs. Tareador ya se ha mostrado útil al ser incluido en las clases de programación de la UPC.
Träff, Jesper. "Aspects of the efficient implementation of the message passing interface (MPI)". Aachen Shaker, 2009. http://d-nb.info/994501803/04.
Texto completoYoung, Bobby Dalton. "MPI WITHIN A GPU". UKnowledge, 2009. http://uknowledge.uky.edu/gradschool_theses/614.
Texto completoAngadi, Raghavendra. "Best effort MPI/RT as an alternative to MPI design and performance comparison /". Master's thesis, Mississippi State : Mississippi State University, 2002. http://library.msstate.edu/etd/show.asp?etd=etd-12032002-162333.
Texto completoSankarapandian, Dayala Ganesh R. Kamal Raj. "Profiling MPI Primitives in Real-time Using OSU INAM". The Ohio State University, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=osu1587336162238284.
Texto completoHoefler, Torsten. "Communication/Computation Overlap in MPI". Universitätsbibliothek Chemnitz, 2006. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200600021.
Texto completoChung, Ryan Ki Sing. "CMCMPI : Compose-Map-Configure MPI". Thesis, University of British Columbia, 2014. http://hdl.handle.net/2429/51185.
Texto completoScience, Faculty of
Computer Science, Department of
Graduate
Libros sobre el tema "MPI"
Duanghom, Srinuan. An Mpi dictionary. Bangkok: Indigenous Languages of Thailand Research Project, 1989.
Buscar texto completoMarc, Snir, ed. MPI: The complete reference. Cambridge, Mass: MIT Press, 1996.
Buscar texto completoNdụbisi, Oriaku Onyefụlụchukwu. Atụrụ ga-epu mpi--. Enugu: Generation Books, 2006.
Buscar texto completoMarc, Snir, ed. MPI--the complete reference. 2a ed. Cambridge, Mass: MIT Press, 1998.
Buscar texto completopechati, Moskovskiĭ gosudarstvennyĭ universitet, ed. My iz MPI: Moskovskiĭ poligraficheskiĭ institut. Moskva: MGUP, 2005.
Buscar texto completoPeter, Corbett y United States. National Aeronautics and Space Administration., eds. MPI-IO: A parallel file I/O interface for MPI : [NAS technical report NAS-95-002 ...]. [Washington, DC: National Aeronautics and Space Administration, 1995.
Buscar texto completoNielsen, Frank. Introduction to HPC with MPI for Data Science. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-21903-5.
Texto completoResearch Institute for Advanced Computer Science (U.S.), ed. A portable MPI-based parallel vector template library. [Moffett Field, Calif.]: Research Institute for Advanced Computer Science, NASA Ames Research Center, 1995.
Buscar texto completoResearch Institute for Advanced Computer Science (U.S.), ed. A portable MPI-based parallel vector template library. [Moffett Field, Calif.]: Research Institute for Advanced Computer Science, NASA Ames Research Center, 1995.
Buscar texto completoResearch Institute for Advanced Computer Science (U.S.), ed. A portable MPI-based parallel vector template library. [Moffett Field, Calif.]: Research Institute for Advanced Computer Science, NASA Ames Research Center, 1995.
Buscar texto completoCapítulos de libros sobre el tema "MPI"
Ross, Robert, Robert Latham, William Gropp, Ewing Lusk y Rajeev Thakur. "Processing MPI Datatypes Outside MPI". En Recent Advances in Parallel Virtual Machine and Message Passing Interface, 42–53. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-03770-2_11.
Texto completoPérache, Marc, Patrick Carribault y Hervé Jourdren. "MPC-MPI: An MPI Implementation Reducing the Overall Memory Consumption". En Recent Advances in Parallel Virtual Machine and Message Passing Interface, 94–103. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-03770-2_16.
Texto completoKnoth, Adrian. "Open MPI". En Grid-Computing, 117–26. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-79747-0_6.
Texto completoHuang, Chao, Orion Lawlor y L. V. Kalé. "Adaptive MPI". En Languages and Compilers for Parallel Computing, 306–22. Berlin, Heidelberg: Springer Berlin Heidelberg, 2004. http://dx.doi.org/10.1007/978-3-540-24644-2_20.
Texto completoPadua, David, Amol Ghoting, John A. Gunnels, Mark S. Squillante, José Meseguer, James H. Cownie, Duncan Roweth et al. "MPI-IO". En Encyclopedia of Parallel Computing, 1191–99. Boston, MA: Springer US, 2011. http://dx.doi.org/10.1007/978-0-387-09766-4_297.
Texto completoRabenseifner, Rolf. "MPI-GLUE: Interoperable high-performance MPI combining different vendor’s MPI worlds". En Euro-Par’98 Parallel Processing, 563–69. Berlin, Heidelberg: Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/bfb0057902.
Texto completoGropp, William, Ewing Lusk y Rajeev Thakur. "Advanced MPI Including New MPI-3 Features". En Recent Advances in the Message Passing Interface, 14. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-33518-1_5.
Texto completoHuse, Lars Paul y Ole W. Saastad. "The Network Agnostic MPI – Scali MPI Connect". En Recent Advances in Parallel Virtual Machine and Message Passing Interface, 294–301. Berlin, Heidelberg: Springer Berlin Heidelberg, 2003. http://dx.doi.org/10.1007/978-3-540-39924-7_42.
Texto completoGraham, Richard L., Timothy S. Woodall y Jeffrey M. Squyres. "Open MPI: A Flexible High Performance MPI". En Parallel Processing and Applied Mathematics, 228–39. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11752578_29.
Texto completoSzustak, Lukasz, Roman Wyrzykowski, Kamil Halbiniak y Pawel Bratek. "Toward Heterogeneous MPI+MPI Programming: Comparison of OpenMP and MPI Shared Memory Models". En Euro-Par 2019: Parallel Processing Workshops, 270–81. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-48340-1_21.
Texto completoActas de conferencias sobre el tema "MPI"
Yang, Chen, Guifa Sun, Xiang Cai, Xiguo Xie y Jianpeng Sun. "MPI toolkit: MPI-based performance analysis software for parallel programs". En International Conference on Algorithms, High Performance Computing and Artificial Intelligence, editado por Pavel Loskot y Liang Hu, 117. SPIE, 2024. http://dx.doi.org/10.1117/12.3051762.
Texto completoTemuçin, Yıltan Hassan, Whit Schonbein, Scott Levy, Amirhossein Sojoodi, Ryan E. Grant y Ahmad Afsahi. "Design and Implementation of MPI-Native GPU-Initiated MPI Partitioned Communication". En SC24-W: Workshops of the International Conference for High Performance Computing, Networking, Storage and Analysis, 436–47. IEEE, 2024. https://doi.org/10.1109/scw63240.2024.00065.
Texto completoZhou, Hui, Robert Latham, Ken Raffenetti, Yanfei Guo y Rajeev Thakur. "MPI Progress For All". En SC24-W: Workshops of the International Conference for High Performance Computing, Networking, Storage and Analysis, 425–35. IEEE, 2024. https://doi.org/10.1109/scw63240.2024.00063.
Texto completoGetov, Vladimir, Paul Gray y Vaidy Sunderam. "MPI and Java-MPI". En the 1999 ACM/IEEE conference. New York, New York, USA: ACM Press, 1999. http://dx.doi.org/10.1145/331532.331553.
Texto completoGreen, Ronald W. "Beyond MPI---Beyond MPI". En the 2006 ACM/IEEE conference. New York, New York, USA: ACM Press, 2006. http://dx.doi.org/10.1145/1188455.1188494.
Texto completo"MPI". En the 1993 ACM/IEEE conference. New York, New York, USA: ACM Press, 1993. http://dx.doi.org/10.1145/169627.169855.
Texto completoSquyres, Jeff y Brian Barrett. "Open MPI---Open MPI community meeting". En the 2006 ACM/IEEE conference. New York, New York, USA: ACM Press, 2006. http://dx.doi.org/10.1145/1188455.1188461.
Texto completoGraham, Richard, Galen Shipman, Brian Barrett, Ralph Castain, George Bosilca y Andrew Lumsdaine. "Open MPI: A High-Performance, Heterogeneous MPI". En 2006 IEEE International Conference on Cluster Computing. IEEE, 2006. http://dx.doi.org/10.1109/clustr.2006.311904.
Texto completoCong Du y Xian-He Sun Sun. "MPI-Mitten: Enabling Migration Technology in MPI". En Sixth IEEE International Symposium on Cluster Computing and the Grid. IEEE, 2006. http://dx.doi.org/10.1109/ccgrid.2006.71.
Texto completoBooth, S. y E. Mourao. "Single sided MPI implementations for SUN MPI". En ACM/IEEE SC 2000 Conference. IEEE, 2000. http://dx.doi.org/10.1109/sc.2000.10022.
Texto completoInformes sobre el tema "MPI"
Han, D. y T. Jones. MPI Profiling. Office of Scientific and Technical Information (OSTI), febrero de 2005. http://dx.doi.org/10.2172/15014654.
Texto completoGarrett, Charles Kristopher. Distributed Computing (MPI). Office of Scientific and Technical Information (OSTI), junio de 2016. http://dx.doi.org/10.2172/1258356.
Texto completoPritchard, Howard Porter Jr, Samuel Keith Gutierrez, Nathan Hjelm, Daniel Holmes y Ralph Castain. MPI Sessions: Second Demonstration and Evaluation of MPI Sessions Prototype. Office of Scientific and Technical Information (OSTI), septiembre de 2019. http://dx.doi.org/10.2172/1566099.
Texto completoPritchard, Howard. MPI Sessions - Working Group activities post MPI 4.0 standard ratification. Office of Scientific and Technical Information (OSTI), diciembre de 2022. http://dx.doi.org/10.2172/1906014.
Texto completoHassanzadeh, Sara, Sina Neshat, Afshin Heidari y Masoud Moslehi. Myocardial Perfusion Imaging in the Era of COVID-19. INPLASY - International Platform of Registered Systematic Review and Meta-analysis Protocols, abril de 2022. http://dx.doi.org/10.37766/inplasy2022.4.0063.
Texto completoLoewe, W. MPI I/O Testing Results. Office of Scientific and Technical Information (OSTI), septiembre de 2007. http://dx.doi.org/10.2172/925675.
Texto completoGeorge, William L., John G. Hagedorn y Judith E. Devaney. Parallel programming with interoperable MPI. Gaithersburg, MD: National Institute of Standards and Technology, 2003. http://dx.doi.org/10.6028/nist.ir.7066.
Texto completoPritchard, Howard y Tom Herschberg. MPI Session:External Network Transport Implementation. Office of Scientific and Technical Information (OSTI), septiembre de 2020. http://dx.doi.org/10.2172/1669081.
Texto completoRao, Lakshman A. y Jon Weissman. MPI-Based Adaptive Parallel Grid Services. Fort Belvoir, VA: Defense Technical Information Center, agosto de 2003. http://dx.doi.org/10.21236/ada439405.
Texto completoBronevetsky, G., A. Friedley, T. Hoefler, A. Lumsdaine y D. Quinlan. Compiling MPI for Many-Core Systems. Office of Scientific and Technical Information (OSTI), junio de 2013. http://dx.doi.org/10.2172/1088441.
Texto completo