Добірка наукової літератури з теми "Local Interpretable Model-Agnostic Explanations (LIME)"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Local Interpretable Model-Agnostic Explanations (LIME)".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Local Interpretable Model-Agnostic Explanations (LIME)":
Zafar, Muhammad Rehman, and Naimul Khan. "Deterministic Local Interpretable Model-Agnostic Explanations for Stable Explainability." Machine Learning and Knowledge Extraction 3, no. 3 (June 30, 2021): 525–41. http://dx.doi.org/10.3390/make3030027.
Knapič, Samanta, Avleen Malhi, Rohit Saluja, and Kary Främling. "Explainable Artificial Intelligence for Human Decision Support System in the Medical Domain." Machine Learning and Knowledge Extraction 3, no. 3 (September 19, 2021): 740–70. http://dx.doi.org/10.3390/make3030037.
Singh, Devesh. "Interpretable Machine-Learning Approach in Estimating FDI Inflow: Visualization of ML Models with LIME and H2O." TalTech Journal of European Studies 11, no. 1 (May 1, 2021): 133–52. http://dx.doi.org/10.2478/bjes-2021-0009.
Weitz, Katharina, Teena Hassan, Ute Schmid, and Jens-Uwe Garbas. "Deep-learned faces of pain and emotions: Elucidating the differences of facial expressions with the help of explainable AI methods." tm - Technisches Messen 86, no. 7-8 (July 26, 2019): 404–12. http://dx.doi.org/10.1515/teme-2019-0024.
Kumar, Akshi, Shubham Dikshit, and Victor Hugo C. Albuquerque. "Explainable Artificial Intelligence for Sarcasm Detection in Dialogues." Wireless Communications and Mobile Computing 2021 (July 2, 2021): 1–13. http://dx.doi.org/10.1155/2021/2939334.
Hung, Sheng-Chieh, Hui-Ching Wu, and Ming-Hseng Tseng. "Remote Sensing Scene Classification and Explanation Using RSSCNet and LIME." Applied Sciences 10, no. 18 (September 4, 2020): 6151. http://dx.doi.org/10.3390/app10186151.
Manikis, Georgios C., Georgios S. Ioannidis, Loizos Siakallis, Katerina Nikiforaki, Michael Iv, Diana Vozlic, Katarina Surlan-Popovic, Max Wintermark, Sotirios Bisdas, and Kostas Marias. "Multicenter DSC–MRI-Based Radiomics Predict IDH Mutation in Gliomas." Cancers 13, no. 16 (August 5, 2021): 3965. http://dx.doi.org/10.3390/cancers13163965.
Modhukur, Vijayachitra, Shakshi Sharma, Mainak Mondal, Ankita Lawarde, Keiu Kask, Rajesh Sharma, and Andres Salumets. "Machine Learning Approaches to Classify Primary and Metastatic Cancers Using Tissue of Origin-Based DNA Methylation Profiles." Cancers 13, no. 15 (July 27, 2021): 3768. http://dx.doi.org/10.3390/cancers13153768.
Steed, Ryan, and Aylin Caliskan. "A set of distinct facial traits learned by machines is not predictive of appearance bias in the wild." AI and Ethics 1, no. 3 (January 12, 2021): 249–60. http://dx.doi.org/10.1007/s43681-020-00035-y.
Udo Sass, A., E. Esatbeyoglu, and T. Iwwerks. "Signal Pre-Selection for Monitoring and Prediction of Vehicle Powertrain Component Aging." Science & Technique 18, no. 6 (December 5, 2019): 519–24. http://dx.doi.org/10.21122/2227-1031-2019-18-6-519-524.
Дисертації з теми "Local Interpretable Model-Agnostic Explanations (LIME)":
Fjellström, Lisa. "The Contribution of Visual Explanations in Forensic Investigations of Deepfake Video : An Evaluation." Thesis, Umeå universitet, Institutionen för datavetenskap, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-184671.
Norrie, Christian. "Explainable AI techniques for sepsis diagnosis : Evaluating LIME and SHAP through a user study." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-19845.
Malmberg, Jacob, Öhman Marcus Nystad, and Alexandra Hotti. "Implementing Machine Learning in the Credit Process of a Learning Organization While Maintaining Transparency Using LIME." Thesis, KTH, Industriell ekonomi och organisation (Inst.), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-232579.
För att bedöma om en kreditlimit för ett företag ska förändras eller inte skriver ett finansiellt institut ett PM innehållande text och finansiella data. Detta PM granskas sedan av en kreditkommitté som beslutar om limiten ska förändras eller inte. För att effektivisera denna process användes i denna rapport maskininlärning istället för en kreditkommitté för att besluta om limiten ska förändras. Eftersom de flesta maskininlärningsalgoritmer är svarta lådor så användes LIME-ramverket för att hitta de viktigaste drivarna bakom klassificeringen. Denna studies resultat visar att kredit-PM kan klassificeras med hög noggrannhet och att LIME kan visa vilken del av ett PM som hade störst påverkan vid klassificeringen. Implikationerna av detta är att kreditprocessen kan förbättras av maskininlärning, utan att förlora transparens. Maskininlärning kan emellertid störa lärandeprocesser i organisationen, varför införandet av dessa algoritmer bör vägas mot hur betydelsefullt det är att bevara och utveckla kunskap inom organisationen.
Saluja, Rohit. "Interpreting Multivariate Time Series for an Organization Health Platform." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-289465.
Maskininlärningsbaserade system blir snabbt populära eftersom man har insett att maskiner är effektivare än människor när det gäller att utföra vissa uppgifter. Även om maskininlärningsalgoritmer är extremt populära, är de också mycket bokstavliga. Detta har lett till en enorm forskningsökning inom området tolkbarhet i maskininlärning för att säkerställa att maskininlärningsmodeller är tillförlitliga, rättvisa och kan hållas ansvariga för deras beslutsprocess. Dessutom löser problemet i de flesta verkliga problem bara att göra förutsägelser med maskininlärningsalgoritmer bara delvis. Tidsserier är en av de mest populära och viktiga datatyperna på grund av dess dominerande närvaro inom affärsverksamhet, ekonomi och teknik. Trots detta är tolkningsförmågan i tidsserier fortfarande relativt outforskad jämfört med tabell-, text- och bilddata. Med den växande forskningen inom området tolkbarhet inom maskininlärning finns det också ett stort behov av att kunna kvantifiera kvaliteten på förklaringar som produceras efter tolkning av maskininlärningsmodeller. Av denna anledning är utvärdering av tolkbarhet extremt viktig. Utvärderingen av tolkbarhet för modeller som bygger på tidsserier verkar helt outforskad i forskarkretsar. Detta uppsatsarbete fokuserar på att uppnå och utvärdera agnostisk modelltolkbarhet i ett tidsserieprognosproblem. Fokus ligger i att hitta lösningen på ett problem som ett digitalt konsultföretag står inför som användningsfall. Det digitala konsultföretaget vill använda en datadriven metod för att förstå effekten av olika försäljningsrelaterade aktiviteter i företaget på de försäljningsavtal som företaget stänger. Lösningen innebar att inrama problemet som ett tidsserieprognosproblem för att förutsäga försäljningsavtalen och tolka den underliggande prognosmodellen. Tolkningsförmågan uppnåddes med hjälp av två nya tekniker för agnostisk tolkbarhet, lokala tolkbara modellagnostiska förklaringar (LIME) och Shapley additiva förklaringar (SHAP). Förklaringarna som producerats efter att ha uppnått tolkbarhet utvärderades med hjälp av mänsklig utvärdering av tolkbarhet. Resultaten av de mänskliga utvärderingsstudierna visar tydligt att de förklaringar som produceras av LIME och SHAP starkt hjälpte människor att förstå förutsägelserna från maskininlärningsmodellen. De mänskliga utvärderingsstudieresultaten visade också att LIME- och SHAP-förklaringar var nästan lika förståeliga med LIME som presterade bättre men med en mycket liten marginal. Arbetet som utförts under detta projekt kan enkelt utvidgas till alla tidsserieprognoser eller klassificeringsscenarier för att uppnå och utvärdera tolkbarhet. Dessutom kan detta arbete erbjuda en mycket bra ram för att uppnå och utvärdera tolkbarhet i alla maskininlärningsbaserade regressions- eller klassificeringsproblem.
Частини книг з теми "Local Interpretable Model-Agnostic Explanations (LIME)":
Recio-García, Juan A., Belén Díaz-Agudo, and Victor Pino-Castilla. "CBR-LIME: A Case-Based Reasoning Approach to Provide Specific Local Interpretable Model-Agnostic Explanations." In Case-Based Reasoning Research and Development, 179–94. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-58342-2_12.
Davagdorj, Khishigsuren, Meijing Li, and Keun Ho Ryu. "Local Interpretable Model-Agnostic Explanations of Predictive Models for Hypertension." In Advances in Intelligent Information Hiding and Multimedia Signal Processing, 426–33. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-6757-9_53.
Thanh-Hai, Nguyen, Toan Bao Tran, An Cong Tran, and Nguyen Thai-Nghe. "Feature Selection Using Local Interpretable Model-Agnostic Explanations on Metagenomic Data." In Future Data and Security Engineering. Big Data, Security and Privacy, Smart City and Industry 4.0 Applications, 340–57. Singapore: Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-33-4370-2_24.
Graziani, Mara, Iam Palatnik de Sousa, Marley M. B. R. Vellasco, Eduardo Costa da Silva, Henning Müller, and Vincent Andrearczyk. "Sharpening Local Interpretable Model-Agnostic Explanations for Histopathology: Improved Understandability and Reliability." In Medical Image Computing and Computer Assisted Intervention – MICCAI 2021, 540–49. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-87199-4_51.
Lampridis, Orestis, Riccardo Guidotti, and Salvatore Ruggieri. "Explaining Sentiment Classification with Synthetic Exemplars and Counter-Exemplars." In Discovery Science, 357–73. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-61527-7_24.
Biecek, Przemyslaw, and Tomasz Burzykowski. "Local Interpretable Model-agnostic Explanations (LIME)." In Explanatory Model Analysis, 107–23. Chapman and Hall/CRC, 2021. http://dx.doi.org/10.1201/9780429027192-11.
Тези доповідей конференцій з теми "Local Interpretable Model-Agnostic Explanations (LIME)":
Sousa, Iam, Marley Vellasco, and Eduardo Silva. "Classificações Explicáveis para Imagens de Células Infectadas por Malária." In Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2020. http://dx.doi.org/10.5753/eniac.2020.12116.
Yao, Chen, Xi Yueyun, Chen Jinwei, and Zhang Huisheng. "A Novel Gas Path Fault Diagnostic Model for Gas Turbine Based on Explainable Convolutional Neural Network With LIME Method." In ASME Turbo Expo 2021: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/gt2021-59289.
Barr Kumarakulasinghe, Nesaretnam, Tobias Blomberg, Jintai Liu, Alexandra Saraiva Leao, and Panagiotis Papapetrou. "Evaluating Local Interpretable Model-Agnostic Explanations on Clinical Machine Learning Classification Models." In 2020 IEEE 33rd International Symposium on Computer-Based Medical Systems (CBMS). IEEE, 2020. http://dx.doi.org/10.1109/cbms49503.2020.00009.
Wang, Bin, Wenbin Pei, Bing Xue, and Mengjie Zhang. "Evolving local interpretable model-agnostic explanations for deep neural networks in image classification." In GECCO '21: Genetic and Evolutionary Computation Conference. New York, NY, USA: ACM, 2021. http://dx.doi.org/10.1145/3449726.3459452.
Freitas da Cruz, Harry, Frederic Schneider, and Matthieu-P. Schapranow. "Prediction of Acute Kidney Injury in Cardiac Surgery Patients: Interpretation using Local Interpretable Model-agnostic Explanations." In 12th International Conference on Health Informatics. SCITEPRESS - Science and Technology Publications, 2019. http://dx.doi.org/10.5220/0007399203800387.
Demajo, Lara Marie, Vince Vella, and Alexiei Dingli. "Explainable AI for Interpretable Credit Scoring." In 10th International Conference on Advances in Computing and Information Technology (ACITY 2020). AIRCC Publishing Corporation, 2020. http://dx.doi.org/10.5121/csit.2020.101516.