Academic literature on the topic 'Jakość danych'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Jakość danych.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Jakość danych"

1

Kobus, Paweł. "Problem eliminacji trendów podczas oceny ryzyka produkcyjnego podstawowych roślin uprawnych." Roczniki Naukowe Ekonomii Rolnictwa i Rozwoju Obszarów Wiejskich 101, no. 4 (2014): 97–104. http://dx.doi.org/10.22630/rnr.2014.101.4.57.

Full text
Abstract:
Na podstawie danych dotyczących plonowania roślin uprawnych z wielu lat można potwierdzić występowanie systematycznych zmian w wysokości plonu na poziomie krajowym. W ocenie wielkości ryzyka produkcyjnego ogólną zmienność plonowania pomniejsza się o systematyczne zmiany wynikające z trendów w plonowaniu poszczególnych roślin uprawnych. W pracy podjęto próbę oceny zasadności takiego postępowania. W tym celu wyznaczono trendy plonowania podstawowych roślin uprawnych w Polsce i porównano jakość predykcji plonów opartych na wyznaczonych trendach oraz jakość predykcji plonów bazujących na średniej arytmetycznej. Jako miarę jakości predykcji przyjęto pierwiastek ze średniego kwadratu błędu predykcji. Badania wykazały, że stosowanie funkcji trendu do predykcji plonowania prowadzi przeciętnie do pogorszenia jakości predykcji o około 27%.
APA, Harvard, Vancouver, ISO, and other styles
2

Grudowska, Joanna. "O CO TYLE DYMU? KONTROWERSJE WOKÓŁ SMOGU W POLSCE." Studia Humanistyczne AGH 21, no. 3 (2022): 7–25. http://dx.doi.org/10.7494/human.2022.21.3.7.

Full text
Abstract:
W artykule zadano pytanie, jakie problemy społeczne generuje społeczno-technologiczna hybrydalność smogu oraz jakie charakterystyki (przyczyny i przedmiot) mają kontrowersje wokół smogu w perspektywie aktorów publicznych i biznesowych. Kluczowa nie okazuje się problematyczność smogu jako takiego, ale ta, którą generuje angażowana materialność - technologia oraz interesy aktorów i ich funkcjonowanie w ramach różnych systemów wiedzy. Generowanie, udostępnianie i jakość danych na temat czystości powietrza oraz wykorzystywane technologie pomiarowe są przedmiotami kontrowersji społecznych wokół smogu. Analizowane kontrowersje dotyczą następujących obszarów: wiarygodności dostarczanych danych, jakości i obecności infrastruktury pomiarowej, pozycji na rynku informacji o zanieczyszczeniach powietrza oraz różnic w ontologiach i kompetencjach na linii laicy–eksperci. Badanie własne przeprowadzono metodą mapowania kontrowersji na podstawie danych zastanych.
APA, Harvard, Vancouver, ISO, and other styles
3

Kamińska, Anna Małgorzata. "ProBIT – prospektywna metoda tworzenia trawersowalnych indeksów cytowań a współczesne problemy organizacji przestrzeni informacji w tradycyjnych bibliograficznych bazach danych." Zagadnienia Informacji Naukowej - Studia Informacyjne 55, no. 1(109) (2017): 66–82. http://dx.doi.org/10.36702/zin.349.

Full text
Abstract:
CEL/TEZA: Artykuł przedstawia autorską metodę budowy bibliograficznych baz danych, sprzyjającą sprawnemu gromadzeniu danych bibliograficznych o wysokiej jakości, które bez dalszych przekształceń stanowić mogą źródło zaawansowanych analiz bibliometrycznych (również tych, które nie ograniczają się jedynie do prostych zestawień ilościowych wyliczanych na podstawie danych zgromadzonych w układzie relacyjnym, ale takich które wymagają trawersowania po ścieżkach grafów reprezentujących sieć cytowań artykułów, czy współpracy między ich autorami). KONCEPCJA/METODY BADAŃ: Autorka, stojąc przed problemem zgromadzenia znacznego wolumenu danych bibliograficznych do realizacji badań własnych, zapoznała się z szeregiem gotowych narzędzi pozwalających na rejestrowanie danych bibliograficznych, jednak żadne z nich nie oferowało oczekiwanej ergonomii, dbałości o jakość gromadzonych danych ani sposobu ich gromadzenia w układzie umożliwiającym prowadzenie na nich dalszych badań bibliometrycznych. Wyciągając wnioski z negatywnych doświadczeń nabytych podczas pracy z tymi narzędziami, zaproponowała własną metodę, którą przedstawia z wykorzystaniem podstawowych notacji języka UML. WYNIKI I WNIOSKI: Przedstawiona metoda okazała się skuteczna i pozwoliła zgromadzić z autopsji w stosunkowo krótkim czasie bardzo dobrej jakości dane o ponad 36 tys. artykułów i ponad 22 tys. autorów, które bezpośrednio posłużyły do realizacji badań bibliometrycznych, które zostaną przedstawione w osobnej pracy. ZASTOSOWANIA PRAKTYCZNE: W pierwszej części artykułu zaprezentowano zagrożenia, jakie niesie z sobą gromadzenie danych bibliograficznych w tzw. tradycyjnym układzie. Na konkretnych przykładach, dla wybranych krajowych bibliograficznych baz danych wykazano, że zagrożenia te materializują się w postaci występowaniu szeregu anomalii, które zostały przez autorkę skategoryzowane, a naprzeciw którym wychodzi zaproponowana metoda. Dzięki jej zastosowaniu możliwe jest podniesienie jakości danych gromadzonych w bibliograficznych bazach danych oraz obniżenie kosztów ich gromadzenia poprzez usprawnienie całego procesu. ORYGINALNOŚĆ/WARTOŚĆ POZNAWCZA: W polskim piśmiennictwie bibliologii i informatologii rzadko podejmowana jest tematyka funkcjonowania bibliograficznych baz danych, najczęściej badacze ograniczają się do definiowania„zakresów informacyjnych przetwarzanych danych”. Autorka zwraca uwagę, że na osiągany wynik końcowy (jakość danych, koszt ich pozyskania i możliwości dalszego przetwarzania) w równym stopniu wpływ ma również układ, w jakim dane są gromadzone (model informacyjny) oraz odpowiednia organizacja procesu gromadzenia.
APA, Harvard, Vancouver, ISO, and other styles
4

Saad, Dominika. "Nowe narzędzia i techniki zwiększające trafność badań internetowych." Com.press 4, no. 1 (2021): 106–21. http://dx.doi.org/10.51480/compress.2021.4-1.248.

Full text
Abstract:
Celem artykułu jest przedstawienie nowych technik poprawiających jakość danych uzyskiwanych w badaniach przeprowadzanych online na przykładzie panelu Amazon MTurk. Poprzedzona kwerendą, krytyczna analiza literatury przedmiotu identyfikuje główne źródła zniekształcenia wyników, którymi są: bezrefleksyjność, działalność botów wypełniających ankiety oraz zachowania respondentów, klasyfikowane jako nadużycia lokalizacyjne interfejsu sieciowego IP. Wykorzystane podczas badania narzędzia oraz techniki wskazują na praktyczne sposoby zwiększania trafności uzyskiwanych danych poprzez rozpoznanie wyników zakłócających na poziomie 60%. Analiza otrzymanych danych potwierdza: 1) użyteczność zastosowanych technik kontroli oraz 2) stosowalność zaproponowanego w tekście modelu operacjonalizacji czasu jako istotnego wskaźnika zachowań bezrefleksyjnych.
APA, Harvard, Vancouver, ISO, and other styles
5

Jarzmik, Aleksandra. "EGiB – zasady, formy udostępniania oraz jakość danych." Urban Development Issues 66, no. 1 (2020): 163–72. http://dx.doi.org/10.2478/udi-2020-0020.

Full text
Abstract:
AbstraktBaza Ewidencji Gruntów i Budynków, czyli rejestr danych liczbowych i opisowych, wykorzystywana jest m.in. w procesie planowania przestrzennego, ustalania wysokości podatków i świadczeń, a brak zmodernizowanej i aktualnej bazy może pociągnąć za sobą spore konsekwencje zarówno dla pojedynczych zainteresowanych, jak i jednostek samorządu terytorialnego. Od lutego 2019 r. na potrzeby prowadzonych badań pozyskuje się dane z ewidencji gruntów i budynków od 314 powiatów oraz 66 miast na prawach powiatów w Polsce. Baza zebranych w tym procesie informacji posłużyła do stworzenia poniższego artykułu. Ukazane w nim zostały procedury składania wniosków wraz z zasadami udostępniania danych. Przeanalizowano również szybkość odpowiedzi w poszczególnych powiatach oraz kompletność udostępnionych danych i ich zgodność z wytycznymi narzuconymi przez Rozporządzenie Ministra Administracji i Cyfryzacji z dnia 29 listopada 2013 r. zmieniające rozporządzenie w sprawie ewidencji gruntów i budynków. Dotychczas dane ewidencji gruntów i budynków uzyskano z 378 jednostek samorządu terytorialnego, a średni czas odpowiedzi wynosił 1 miesiąc.
APA, Harvard, Vancouver, ISO, and other styles
6

Michalik, Anna, Agnieszka Zwirowicz-Rutkowska, and Maja Wojtkiewicz. "PROBLEMATYKA PRZECIWDZIAŁANIA ZANIECZYSZCZENIOM POWIETRZA W PRACACH PROJEKTOWYCH URBANISTÓW I ARCHITEKTÓW W KONTEKŚCIE WYKORZYSTANIA INFRASTRUKTUR I SYSTEMÓW INFORMACJI PRZESTRZENNEJ." Acta Scientiarum Polonorum Administratio Locorum 16, no. 4 (2018): 263–75. http://dx.doi.org/10.31648/aspal.450.

Full text
Abstract:
Jednym z zagadnień, aktualnie nagłaśnianych w środkach masowego przekazu w Polsce, a odnoszącym się do planowania przestrzennego, jest zanieczyszczenie powietrza. Przy tworzeniu opracowań projektowych i prób włączenia, przez urbanistów i architektów, dedykowanych rozwiązań służących przeciwdziałaniu zanieczyszczeniom powietrza na każdym etapie prac bardzo ważnym zagadnieniem jest dobór i jakość danych. Czynności w ramach realizacji poszczególnych etapów prac mogą być mniej pracochłonne, a jednocześnie dokładniejsze, jeżeli rozważy się wykorzystanie takich rozwiązań, jak infrastruktura i systemy informacji przestrzennej. Celem artykułu jest analiza, na bazie doświadczeń zawodowych autorów prezentowanej publikacji, możliwości wykorzystania infrastruktury i systemów informacji przestrzennej jako źródeł danych oraz analiz na potrzeby prac projektowych prowadzonych przez polskich urbanistów i architektów, związanych z poprawą jakości powietrza. Celem szczegółowym jest przedstawienie, na podstawie przeglądu literatury, przykładów rozwiązań projektowych, które mogą służyć przeciwdziałaniu zanieczyszczeniom powietrza.
APA, Harvard, Vancouver, ISO, and other styles
7

Kisielińska, Joanna. "Panelowe klasyfikacyjne modele upadłości ekonomicznej gospodarstw rolniczych." Zeszyty Naukowe SGGW w Warszawie - Problemy Rolnictwa Światowego 4 (September 30, 2008): 259–69. http://dx.doi.org/10.22630/prs.2008.4.37.

Full text
Abstract:
W artykule przedstawiono cztery klasyfikacyjne modele prognozowania upadłości ekonomicznej gospodarstw rolniczych zbudowane na podstawie danych panelowych. Były to liniowa funkcja dyskryminacyjna, probitowy model dla danych połączonych, probitowy model z efektami losowymi oraz sieć neuronowa. Zbliżona ich jakość wskazuje na liniowość sformułowanego zadania.
APA, Harvard, Vancouver, ISO, and other styles
8

KALBARCZYK-GUZEK, Ewa. "IMPACT OF MAP DATA QUALITY ON THE USABILITY OF ICT LOGISTICS INFORMATION SYSTEMS." Systemy Logistyczne Wojsk 51, no. 2 (2019): 57–70. http://dx.doi.org/10.37055/slw/129221.

Full text
Abstract:
W artykule omówiono zagrożenia jakie niesie za sobą nieprawidłowa jakość danych mapowych w organizacjach zajmujących się logistyką w kontekście procesów jakie obsługują. Zwrócono uwagę na problematykę błędnych danych adresowych, zarówno na poziomie strategicznym jak i operacyjnym. Wyszczególniono problemy, z jakimi borykają się firmy logistyczne posiadające bazy z błędnie zgeokodowanymi kontrahentami. Opisano dostępne na rynku metody czyszczenia danych oferowane przez wyspecjalizowane przedsiębiorstwa rynkowe.
APA, Harvard, Vancouver, ISO, and other styles
9

Kaczmarski, Michał. "Robotic Process Automation, czyli automatyzacja modeli decyzyjnych z wykorzystaniem botów. Perspektywy i obawy na przykładzie zastosowań w branży farmaceutycznej." Studia i Prace Kolegium Zarządzania i Finansów, no. 179 (October 13, 2020): 43–56. http://dx.doi.org/10.33119/sip.2020.179.3.

Full text
Abstract:
Robotic Process Automation, czyli automatyzacja procesów na podstawie botów, to atrakcyjna propozycja dla organizacji zainteresowanych przyspieszeniem rutynowych procesów gospodarczych oraz poprawą ich jakości poprzez algorytmizację. Automatyzowane procesy, przed ich robotyzacją, angażują zazwyczaj znaczne zasoby ludzkie oraz mnóstwo czasu. Dzięki robotyzacji ludzki potencjał może zostać uwolniony do realizacji bardziej kreatywnych zadań, skraca się czas wykonania rutynowych czynności, poprawia jakość danych, dzięki eliminacji błędów ludzkich, a tym samym jakość decyzji podejmowanych na ich podstawie.Boty to roboty instalowane na komputerach fizycznych lub wirtualnych, zdolne do naśladowania ludzkiej aktywności w oprogramowaniu obsługiwanym wcześniej jedynie przez operatora - człowieka. Celem publikacji jest przede wszystkim przybliżenie czytelnikowi obszarów zastosowania botów w nauce i biznesie. W tekście zawarto również opis przypadku zastosowania botów w procesie detekcji wprowadzania do legalnego łańcucha dystrybucji leków sfałszowanych, jako swoisty proof of concept. Ten ostatni element, tj. monitoring łańcucha dystrybucji leków za pośrednictwem Europejskiego Systemu Weryfikacji Autentyczności Leków (EMVS) stanowi przedmiot badań oraz działalności zawodowej autora. Początkowo praca z tym systemem odbywała się bez zaangażowania robotów, jednak szybko okazało się, że wolumen danych nie pozwala na analizę opartą wyłącznie na działaniach człowieka. Ponadto czas analiz oraz formułowanie wniosków zajmowało zbyt wiele czasu, aby działania te można uznać za prewencję. Autor postanowił postawić hipotezę, że zaangażowanie robotów informatycznych pozwoli na eliminację powyższych ograniczeń.
APA, Harvard, Vancouver, ISO, and other styles
10

Hryniewicz, Janusz T. "Jakość rządzenia i sprawność biurokratyczna a polityka spójności na tle tradycji kulturowej Europy Środkowo-Wschodniej." Środkowoeuropejskie Studia Polityczne, no. 3 (October 2, 2019): 5–28. http://dx.doi.org/10.14746/ssp.2019.3.1.

Full text
Abstract:
Przedmiotem badań była hipoteza dotycząca wpływu polityki spójności na jakość rządzenia i sprawność biurokratyczną na tle uwarunkowań społeczno-kulturowych. Jednostkami obserwacji były regiony i państwa Europy Środkowo-Wschodniej. Czynniki kulturowe opisano w kategoriach historycznej ewolucji korelatów kapitału społecznego. Obliczenia przeprowadzono w oparciu o międzynarodowe bazy danych dla państw i regionów. Do pomiaru jakości rządzenia użyto wskaźników: QoG (Quality of Gowernace) i regionalnego wskaźnika jakości rządzenia EQI (European Quality Index). Jakość rządzenia mierzona wskaźnikiem QoG jest funkcją kapitału społecznego i wyposażenia w zasoby finansowe administracji publicznej. Zapoczątkowane w 2015 r. w Polsce modyfikacje trójpodziału władzy, nie przełożyły się, jak na razie, na wskaźniki jakości rządzenia. Natomiast na Węgrzech zmiana rządu i późniejszy spadek jakości rządzenia były poprzedzone głębokim kryzysem społeczeństwa obywatelskiego. Polityka spójności została potraktowana jako szczególny przypadek importu kulturowego. Badania regionalne w oparciu o wskaźnik EQI pokazały, że środki polityki spójności przyczyniły się do poprawy funkcjonowania organów administracji publicznej, ale nie wpłynęły na poprawę wskaźnika EQI. Znaczenie zmian czynników społeczno-kulturowych dla poprawy sprawności biurokratycznej jest ambiwalentne. Zmiany czynników zewnętrznych (kapitał społeczny) sprzyjają poprawie funkcjonowania administracji publicznej w krajach Europy Środkowo-Wschodniej. Natomiast styl kierowania będzie stanowił wyraźną barierę wobec tych oddziaływań. Import kulturowy nie spowodował wyraźnych przemian kultury organizacyjnej.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Jakość danych"

1

Lenart, Marcin. "Sensor information scoring for decision-aid systems in railway domain." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS157.

Full text
Abstract:
Cette thèse examine le problème de l’évaluation de la qualité d’information produite par des capteurs : ces derniers ne fournissent pas toujours une information correcte et l’évaluation de sa qualité est nécessaire pour en permettre une utilisation optimale. Nous proposons une approche qui ne fait pas d’hypothèse sur le type de capteur considéré, ne requiert pas de vérité-terrain et dépend seulement de méta-informations aisées à obtenir, qui exploitent des attributs partagés par la plupart des capteurs. Le modèle proposé est appelé ReCLiC, du nom en anglais des quatre dimensions sur lesquelles il repose : fiabilité, compétence, vraisemblance et crédibilité (Reliability, Competence, Likelihood et Credibility). Nous discutons les contraintes et propriétés souhaitées de ces dimensions et proposons des définitions motivées pour chacune d’entre elles. De plus, nous proposons une implémentation de la définition générique de ReCLiC pour un problème réel, dans le domaine de la signalisation ferroviaire : nous discutons de leur forme pour cette application et effectuons une analyse théorique du comportement du modèle de cotation d’information auquel elles conduisent, en examinant chaque dimension séparément. Cette implémentation est validée expérimentalement en utilisant des données simulées réalistes, générées selon un protocole expérimental permettant de contrôler les problèmes de qualité introduits. Le modèle ReCLIC est de plus mis en oeuvre sur des données ferroviaires réelles, en utilisant une méthode de visualisation originale qui permet en outre d'étudier la notion de dynamique de la confiance<br>In this thesis, the problem of assessing information quality produced by sensors is investigated. Indeed, sensors, usually used in networks, do not always provide correct information and the scoring of this information is needed. An approach is proposed that deals with some of the major limitations in the literature by providing a model designed to be sensor-generic, not dependent on ground truth and dependent only on easy-to-access meta-information, exploiting only attributes shared among the majority of sensors. The proposed model is called ReCLiC from the four dimensions that it considers: Reliability, Competence, Likelihood and Credibility. The thesis discusses in depth the requirements of these dimensions and proposes motivated definitions for each of them. Furthermore, it proposes an implementation of the generic ReCLiC definition to a real case, for a specific sensor in the railway signalling domain: the form of the four dimensions for this case is discussed and a formal and experimental study of the information scoring behaviour is performed, analysing each dimension separately. The proposed implementation of the ReCLiC model is experimentally validated using realistic simulated data, based on an experimental protocol that allows to control various quality issues as well as their quantity, Finally, the ReCLiC model is used to analyse a real datasetapplying a new visualisation method that, in addition, allows to study the notion of trust dynamic
APA, Harvard, Vancouver, ISO, and other styles
2

Buregwa-Czuma, Sylwia. "Metody stosowania wiedzy dziedzinowej do poprawiania jakości klasyfikatorów." Doctoral thesis, Katowice: Uniwersytet Śląski; Rzeszów: Uniwersytet Rzeszowski, 2017. http://hdl.handle.net/20.500.12128/5773.

Full text
Abstract:
The dissertation deals with methods that allow the use of domain knowledge to improve the quality of classifiers, where quality improvement concerns: feature extraction methods, classifier construction methods, and methods for predicting decision values for new objects. In particular the following methods have been proposed to improve the quality of classifiers: the expert features (attributes) defined using domain knowledge expressed in a language that uses the temporal logic, a new method of measuring the quality of cuts during supervised discretization using a matrix of the distances between decision attribute values defined by a domain knowledge, a new decision tree that uses redundant cuts to verify the partition of a tree node, a new method for determination of similarities between objects (e.g. patients) using an ontology defined by an expert with its application to the k-nearest neighbors classifier construction and a new method for generating cross rules describing the effect of a factor interfering perception based on a classifier. All of the aforementioned methods have been implemented in the CommoDM software library, which is one of the RSES-lib library extensions. Implemented methods have been tested on real data sets. These were comparative data sets known from the literature as well as own medical data sets collected during the preparation of the dissertation. The latter data sets are associated with the medical aspect of the dissertation that deals with the support of treatment of patients with stable ischemic heart disease, and the main medical problem considered in the thesis is the problem of predicting the presence of significant coronary artery stenosis based on non-invasive heart monitoring by Holter method. The results of experiments confirm the effectiveness of the application of additional domain knowledge in the task of creating and testing classifiers, because after the application of new methods the quality of classifiers has increased considerably. At the same time, the clinical interpretation of the results is more consistent with medical knowledge. The research has been supported by the grant DEC-2013/09/B/ST6/01568 and the grant DEC-2013/09/B/NZ5/00758, both from the National Science Centre of the Republic of Poland. Their results were published in 10 publications, including 3 publications in journals from the A list of the Polish Ministry of Science and Higher Education, 3 publications indexed in the Web of Science, one chapter in a monograph and 3 post-conference publications.
APA, Harvard, Vancouver, ISO, and other styles
3

Duszkiewicz, Roksana. "Ocena liganda jako potencjalnego leku na próbie wybranych baz wielkich danych." Doctoral thesis, Katowice : Uniwersytet Śląski, 2020. http://hdl.handle.net/20.500.12128/18293.

Full text
Abstract:
Pełne teksty dołączonych do pracy publikacji autorki, wg załączonej listy, dostępne są lokalnie w sieci bibliotek Uniwersytetu Śląskiego: http://www.bc.us.edu.pl/publication/22502<br>Basically, molar or weight scales are typical representations of the properties measured for molecular ensembles (substances). This was recently extended by the so called single molecule biology. Here we compare a large property datasets including biological activity (ChEMBL, PubChem) analyzing their relation to the aforementioned representations. The question of the maximal potency of ligands inspired the development and application of ligand efficiency (LE) estimators in drug design. LE which is a ratio of IC50 to heavy atom counts (HAC) could be interpreted as a property representation type. Most often LE is analyzed as a function of HAC. Here LE is compared to the series of other properties of chemical compounds typically measured in the molar or weight scales. In the drug design literature LE has appeared controversial. This inspired the development of the new estimators: PLE, pPLE and SCORE which was described and analyzed in this work. LE could also be interpreted in a single molecule scale, defining a potency of a single HAC This represents a molecular fragmentation. The dual representation of chemical compounds by molecules and substances decides that uncertainty of such fragmentation. This uncertainty can be described by a paradox similar to the Zenon paradox referring to the uncertainty of the division of space and time .
APA, Harvard, Vancouver, ISO, and other styles
4

Vatulíková, Andrea. "Performance art jako hraniční forma uměleckého projevu." Doctoral thesis, Vysoké učení technické v Brně. Fakulta výtvarných umění, 2018. http://www.nusl.cz/ntk/nusl-387735.

Full text
Abstract:
While taking into account the field of study of performing arts, I assume that the category called „performing arts“ underwent many reforms in the 20th century, making it almost impossible to set clear boundaries between theatre, dance and performance art. Therefore I deal with their common ground that I call the zero point and that allows me to explore means of expression of human body and also time – space dimension of live action. The zero point is located in the pelvic region of the body and it is the center of stability, balance and life enegry. In my dissertation I focus on the analysis of physical trainings that work with the zero point in theater, dance and performance arts. Primary output of this work is then analysis of physicality as culturally encoded construct and the practical part of disseration is focused on the realisation of the point zero symposium.
APA, Harvard, Vancouver, ISO, and other styles
5

Fialová, Petra. "Posouzení vlivu územního plánování na cenu pozemků v Třebíči." Master's thesis, Vysoké učení technické v Brně. Ústav soudního inženýrství, 2014. http://www.nusl.cz/ntk/nusl-232891.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Sawicki, Michał. "Szeregowanie transakcji danych w czasie rzeczywistym zapewniające jakość dostarczanych usług w interfejsach komunikacyjnych." Rozprawa doktorska, 2018. https://repolis.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=49850.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sawicki, Michał. "Szeregowanie transakcji danych w czasie rzeczywistym zapewniające jakość dostarczanych usług w interfejsach komunikacyjnych." Rozprawa doktorska, 2018. https://delibra.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=49850.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Karcewicz, Jarosław. "Algorytmy obsługi użytkowników w rozwiniętych sieciach lokalnych i rozległych." Rozprawa doktorska, 2006. https://repolis.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=5432.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Karcewicz, Jarosław. "Algorytmy obsługi użytkowników w rozwiniętych sieciach lokalnych i rozległych." Rozprawa doktorska, 2006. https://delibra.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=5432.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Wójcicki, Robert. "Wpływ mechanizmów kontroli natężenia ruchu na jakość usług w sieciach TCP/IP/ATM." Rozprawa doktorska, 2005. https://repolis.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=5076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Jakość danych"

1

Sztabiński, Franciszek. Ocena jakości danych w badaniach surveyowych. Wydawn. IFiS PAN, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rzeczkowski, Wiktor. Kartoteki wyrażeniowe jako środek usprawnienia systemu bazy danych. Państwowe Wydawn. Nauk., 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Osińska-Skotak, Katarzyna. Metodyka wykorzystania super-1 hiperspektralnych danych satelitarnych w analizie jakości wód śródlądowych. Oficyna Wydawnicza Politechniki Warszawskiej, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pomarańska-Szumska, Aneta. Jak tańczy współczesna poezja?: Taniec jako tworzywo i forma wiersza. Uniwersytet Warszawski, Wydział Polonistyki, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Kordos, Jan. Jakosc danych statystycznych. 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ślusarski, Marek. Metody i modele oceny jakości danych przestrzennych. Publishing House of the University of Agriculture in Krakow, 2017. http://dx.doi.org/10.15576/978-83-66602-30-4.

Full text
Abstract:
The quality of data collected in official spatial databases is crucial in making strategic decisions as well as in the implementation of planning and design works. Awareness of the level of the quality of these data is also important for individual users of official spatial data. The author presents methods and models of description and evaluation of the quality of spatial data collected in public registers. Data describing the space in the highest degree of detail, which are collected in three databases: land and buildings registry (EGiB), geodetic registry of the land infrastructure network (GESUT) and in database of topographic objects (BDOT500) were analyzed. The results of the research concerned selected aspects of activities in terms of the spatial data quality. These activities include: the assessment of the accuracy of data collected in official spatial databases; determination of the uncertainty of the area of registry parcels, analysis of the risk of damage to the underground infrastructure network due to the quality of spatial data, construction of the quality model of data collected in official databases and visualization of the phenomenon of uncertainty in spatial data. The evaluation of the accuracy of data collected in official, large-scale spatial databases was based on a representative sample of data. The test sample was a set of deviations of coordinates with three variables dX, dY and Dl – deviations from the X and Y coordinates and the length of the point offset vector of the test sample in relation to its position recognized as a faultless. The compatibility of empirical data accuracy distributions with models (theoretical distributions of random variables) was investigated and also the accuracy of the spatial data has been assessed by means of the methods resistant to the outliers. In the process of determination of the accuracy of spatial data collected in public registers, the author’s solution was used – resistant method of the relative frequency. Weight functions, which modify (to varying degree) the sizes of the vectors Dl – the lengths of the points offset vector of the test sample in relation to their position recognized as a faultless were proposed. From the scope of the uncertainty of estimation of the area of registry parcels the impact of the errors of the geodetic network points was determined (points of reference and of the higher class networks) and the effect of the correlation between the coordinates of the same point on the accuracy of the determined plot area. The scope of the correction was determined (in EGiB database) of the plots area, calculated on the basis of re-measurements, performed using equivalent techniques (in terms of accuracy). The analysis of the risk of damage to the underground infrastructure network due to the low quality of spatial data is another research topic presented in the paper. Three main factors have been identified that influence the value of this risk: incompleteness of spatial data sets and insufficient accuracy of determination of the horizontal and vertical position of underground infrastructure. A method for estimation of the project risk has been developed (quantitative and qualitative) and the author’s risk estimation technique, based on the idea of fuzzy logic was proposed. Maps (2D and 3D) of the risk of damage to the underground infrastructure network were developed in the form of large-scale thematic maps, presenting the design risk in qualitative and quantitative form. The data quality model is a set of rules used to describe the quality of these data sets. The model that has been proposed defines a standardized approach for assessing and reporting the quality of EGiB, GESUT and BDOT500 spatial data bases. Quantitative and qualitative rules (automatic, office and field) of data sets control were defined. The minimum sample size and the number of eligible nonconformities in random samples were determined. The data quality elements were described using the following descriptors: range, measure, result, and type and unit of value. Data quality studies were performed according to the users needs. The values of impact weights were determined by the hierarchical analytical process method (AHP). The harmonization of conceptual models of EGiB, GESUT and BDOT500 databases with BDOT10k database was analysed too. It was found that the downloading and supplying of the information in BDOT10k creation and update processes from the analyzed registers are limited. An effective approach to providing spatial data sets users with information concerning data uncertainty are cartographic visualization techniques. Based on the author’s own experience and research works on the quality of official spatial database data examination, the set of methods for visualization of the uncertainty of data bases EGiB, GESUT and BDOT500 was defined. This set includes visualization techniques designed to present three types of uncertainty: location, attribute values and time. Uncertainty of the position was defined (for surface, line, and point objects) using several (three to five) visual variables. Uncertainty of attribute values and time uncertainty, describing (for example) completeness or timeliness of sets, are presented by means of three graphical variables. The research problems presented in the paper are of cognitive and application importance. They indicate on the possibility of effective evaluation of the quality of spatial data collected in public registers and may be an important element of the expert system.
APA, Harvard, Vancouver, ISO, and other styles
7

Golonka, Marek. Musical jako maszyna pamięci. Przedstawienie przeszłości Austrii w wybranych musicalach Michaela Kunzego. University of Warsaw Press, 2022. http://dx.doi.org/10.31338/uw.9788323554066.

Full text
Abstract:
Michael Kunze, librettist whose works include Elisabeth and Dance of the Vampires, enjoys immense popularity throughout Europe and Asia. His biographical musicals are not only impressive shows but also fascinating attempts at introducing the audience both to Austrian history and to mechanisms of presenting the past by means of modern music theatre. "Musical as Memory Machine" discusses the creation process of Kunze’s two famous musicals, Elisabeth and Mozart!, in the context of studies on collective memory and of the Euro-American history of music theatre as a form of entertainment. The book demonstrates that the musical has long been tightly intertwined with the memories of the societies where it is staged, and that the history of the musical as a genre is inextricably linked with Vienna.
APA, Harvard, Vancouver, ISO, and other styles
8

Iwańczuk-Kaliska, Anna, and Anna Warchlewska, eds. Bankowość. Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, 2023. http://dx.doi.org/10.18559/978-83-8211-188-0.

Full text
Abstract:
W kilku ostatnich dekadach w bankowości zaszło wiele zmian wywołanych wdrażaniem nowoczesnych technologii i związanymi z tym innowacjami produktowymi oraz reorganizacją działalności bankowej. Następowała również ewolucja otoczenia gospodarczego i instytucjonalnego systemów bankowych w skali krajowej i globalnej. Niemniej banki nieprzerwanie odgrywają istotną rolę w gospodarce i mają szczególne cechy jako przedsiębiorstwa, instytucje finansowe i podmioty zaufania publicznego. Funkcjonowanie rynku usług bankowych opiera się na specyficznych zasadach działalności instytucji tworzących system bankowy. Podręcznik stanowi kompendium wiedzy we wskazanych powyżej obszarach. Jego treść została podzielona na trzynaście tematów, z których każdy może być przedmiotem odrębnego wykładu z zakresu bankowości. Poszczególne części zawierają elementy graficzne z ilustracjami i danymi, przykłady z praktyki, ciekawostki oraz odnośniki do źródeł zewnętrznych, co poszerza ich zakres i wzmacnia aktualność. Książka jest adresowana do studentów ekonomii, finansów i dyscyplin pokrewnych, a także innych osób, którym może pomóc w zrozumieniu zagadnień z zakresu bankowości od tradycji po nowoczesność.
APA, Harvard, Vancouver, ISO, and other styles
9

Olejko, Katarzyna, ed. Corporate governance w teorii i praktyce - wybrane problemy. Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach, 2022. http://dx.doi.org/10.22367/uekat.9788378758167.

Full text
Abstract:
Ład korporacyjny (corporate governance)1, tworzący system wzajemnie powiązanych wewnętrznych oraz zewnętrznych mechanizmów organizacyjno- -kontrolnych, uznawany jest obecnie za jedną z kluczowych determinant sukce- su gospodarczego złożonych struktur korporacyjnych. Brak odpowiednich roz- wiązań w obszarze nadzoru korporacyjnego zwiększa prawdopodobieństwo materializacji ryzyka nadużyć i nieprawidłowości we wszystkich obszarach funkcjonowania spółki, a w konsekwencji potęguje ryzyko utraty zainwestowa- nego w niej kapitału. Zwiększa również ryzyko transakcyjne dla innych nieza- angażowanych kapitałowo interesariuszy. Jak ważne jest tworzenie odpowied- nich zabezpieczeń przed wymienionymi wyżej zagrożeniami, potwierdzają liczne badania prowadzone przez firmy audytorskie czy instytucje powołane w celu przeciwdziałania nadużyciom i oszustwom. Wykonywane przez nie ana- lizy o charakterze globalnym potwierdzają wysoki poziom zagrożenia defrauda- cją mienia, korupcją czy przestępstwami polegającymi na zniekształceniu infor- macji prezentowanych w sprawozdaniach. Mimo wprowadzanych rozwiązań organizacyjnych, których celem jest mitygowanie ryzyka, badania te często nie wskazują na istotną tendencję spadkową, a wręcz przeciwnie, potwierdzają wciąż znaczną liczbę ujawnionych nieprawidłowości. Pojawia się zatem pytanie, czy tendencja ta jest efektem zwiększonej świadomości i skuteczności mechani- zmów nadzoru, a co za tym idzie lepszej wykrywalności, czy też wraz ze wzro- stem nieprawidłowości zwiększa się również liczba ujawnień, a wprowadzane instrumenty nadzoru nie przynoszą oczekiwanych rezultatów. Aby odpowie- dzieć na to pytanie, niezbędne będzie przeprowadzenie złożonych badań uwzględniających między innymi turbulentność gospodarki, zmienność czynni- ka psychologicznego, rozwiązań prawnych i organizacyjnych, i na tym tle doko- nanie oceny jakości i skuteczności implementowanych w przedsiębiorstwach mechanizmów corporate governance. Sam nadzór korporacyjny jest bowiem pojęciem multidyscyplinarnym, które powinno być rozpatrywane przez pryzmat problemów rozważanych w ramach różnych dyscyplin naukowych. Przystąpienie do oceny skuteczności mechanizmów nadzoru ze względu na jego wielowymiarowość należy poprzedzić przeglądem podstaw teoretycznych, w tym zmian koncepcji zarządzania, a w szczególności zmiany perspektywy postrzegania celu przedsiębiorstwa. Cel ten formułowany jest bowiem w róż- nych ujęciach teoretycznych w zróżnicowany sposób. Z perspektywy rozwoju koncepcji nadzoru korporacyjnego kluczowe znaczenie ma akcentowane w teo- riach menedżerskich oddzielenie własności kapitału od procesu zarządzania nim oraz zróżnicowanie celów właściciela i zarządzającego kapitałem menedżera. W efekcie wyżej wskazanego podziału właściciel zostaje pozbawiony w znacz- nej mierze kontroli nad powierzonym spółce majątkiem. Negatywne skutki ograniczonego dostępu właściciela kapitału zainwesto- wanego w spółkach do rzetelnej informacji potwierdzają przypadki oszustw i nadużyć, które ujrzały światło dzienne dopiero po wieloletnim okresie manipu- lowania danymi sprawozdawczymi. Po ich wykryciu było już za późno na podej- mowanie jakichkolwiek działań naprawczych. Bezcelowa w tych przypadkach okazała się ocena spółki przez pryzmat jej sprawozdania. Pomimo nadzoru pro- wadzonego przez dedykowany do tego organ, jakim jest rada nadzorcza, w wielu przypadkach nie udało się uniknąć przykrych konsekwencji celowego działania nieuczciwych menedżerów. Co ciekawe, naruszenia zasady rzetelności sprawoz- dawczej nie dostrzegali również audytorzy. Sytuacje te ujawniły nie tylko niepra- widłowości sprawozdawcze, ale przede wszystkim przestępstwa niewykryte przez wprowadzone w tych spółkach mechanizmy kontrolne obejmujące rozwiązania organizacyjne, polityki, procedury działania, w tym kodeksy etyczne. Fakt ten dał asumpt do poszukiwania coraz sprawniejszych rozwiązań organizacyjnych ogra- niczających ryzyko nadużyć i fałszerstw. Przeprowadzając historyczną analizę przyczyn i konsekwencji przestępstw gospodarczych ukrywanych przed właścicielami wprowadzanymi w błąd poprzez nierzetelne informacje sprawozdawcze, autorzy licznych publikacji skupiają się głównie na zdarzeniach wykrytych w latach 90. XX w. oraz w pierwszej dekadzie XXI w. Jednak problematyka związana z naruszeniami prawa gospodarczego, a następnie celowego naruszania reguł sprawozdawczych (prawa bilansowego) i potrzeby budowania odpowiednich zabezpieczeń pozwalających ograniczyć ryzy- ko nieprawidłowości i nierzetelności stanowiła przedmiot rozważań autorów już zdecydowanie wcześniej. S. Latanowicz – zaprzysiężony i publicznie ustanowiony rewizor ksiąg, publikujący opracowania poruszające omawianą tematykę już od 1910 r. – twierdził, że: „Fałszowanie ksiąg i dowodów rozpoczęło się prawie rów- nocześnie z wynalezieniem księgowości w ogóle” [Latanowicz, 1934, s. 11]. W opublikowanym w 1549 r. dziele niemieckim pt. Zwifach Buchhalten, autorstwa B.W. Schweickera, znajdował się już opis fałszywych dowodów i złego prowadzenia księgowości. Jak podkreśla S. Latanowicz, „od tego czasu upłynęło blisko 400 lat, w którym to czasie fałszerstwa nie ustały” [Latanowicz, 1934, s. 11]. Zważywszy na fakt, że przywołana publikacja ukazała się już w 1934 r. czas dyskusji na temat manipulacji i fałszerstw księgowych, których celem jest ukrycie działalności przestępczej i „lukrowanie rzeczywistości”, a także czas poszukiwania remedium, pozwalającego na wyeliminowanie praw- dopodobieństwa naruszeń, jest zdecydowanie dłuższy. J. Jeżak podkreśla, że: „Problem kontroli nad zachowaniami menadżerów pojawił się [...] w dysku- sjach akademickich i badaniach już na początku lat 30-tych XX wieku” [Jeżak, 2006, s. 42]. Właśnie wtedy A. Berle i G. Means, publikując wyniki swoich badań, sformułowali tezę o oddzieleniu własności od kontroli nad korporacją oraz zaprezentowali związane z tym zagrożenia [Jeżak, 2006, s. 42]. Od lat stopniowo wprowadzane są mechanizmy prawne oraz organizacyjne pozwalające na minimalizację ryzyka wystąpienia opisanych wyżej naruszeń nie tylko na etapie raportowania, ale już wcześniej, bo w trakcie realizacji procesów operacyjnych. Szczególną rolę należy tu przypisać wewnętrznym narzędziom nadzoru korporacyjnego. Wewnętrzne mechanizmy corporate governance utoż- samiane są często z radą nadzorczą. I. Koładkiewicz do grupy mechanizmów wewnętrznych włącza również organy doradcze i organy opiniujące [Gad, 2011, s. 30]. Biorąc pod uwagę kontrolę nad sprawozdawczością finansową, J. Gad wymienia zdecydowanie szerszy katalog mechanizmów nadzoru. Do tej grupy autor zaliczył: radę nadzorczą oraz komitet audytu, audyt wewnętrzny działający na rzecz rady oraz samoregulację w postaci kodeksów etycznych czy procedur wewnętrznych [Gad, 2019, s. 85]. To właśnie te mechanizmy, mające na celu zwiększenie zakresu i skutecz- ności kontroli wewnętrznej oraz kontroli sprawowanej przez samego właściciela, tworzą kontekst tematyczny niniejszej publikacji. Celem prowadzonych w niej rozważań jest prezentacja interdyscyplinarności problematyki corporate governance, a w tym przedstawienie wybranych problemów dotyczących efektywności mechanizmów nadzoru, zwiększających szanse na wy- krywanie przestępstw oraz nadużyć wewnętrznych, a także oszustw, w tym tych dotyczących raportowania. Zrealizowanie tak sformułowanego celu umożliwiła realizacja określonych na wstępie celów cząstkowych, do których zaliczono: prezentację koncepcji nadzoru korporacyjnego oraz związanych z nią wybranych problemów prawnych i organizacyjnych, prezentację problemów raportowania i monitorowania procesu raportowania jako kluczowego narzędzia nadzoru korporacyjnego, prezentację problemów audytu wewnętrznego jako kluczowego mechanizmu wewnętrznego nadzoru korporacyjnego. Biorąc pod uwagę wyżej wskazany cel główny, uzasadnione jest skupienie uwagi czytelnika na mechanizmach wewnętrznych oraz wybranych mechanizmach regulacyjnych, zapewniających czy też mających zapewnić właścicielom odpo- wiednią jakość informacji na temat sytuacji ekonomicznej spółki. Skuteczny nadzór determinowany jest umiejętnością dostrzegania powiązań i przenikania się poszczególnych procesów, a także wykorzystywania zachodzącej pomiędzy nimi synergii. Niniejsza publikacja ma być wsparciem w kształtowaniu umiejętności spoglądania na problematykę nadzoru korporacyjnego w taki właśnie sposób. Ze względu na coraz większą świadomość potrzeby tworzenia skutecznych systemów nadzoru tematyka ta staje się coraz częściej przedmiotem dyskusji i roz- ważań zarówno wśród teoretyków, jak i praktyków przedmiotu. Rozdziały zawarte w monografii poruszają wybrane problemy uznane przez autorów za ważne dla zrozumienia istoty procesu rozwoju koncepcji corporate governance, którą utożsamia się tu z nadzorem korporacyjnym. Książka została podzielona na trzy części, w których przedstawiono kolejno kwestie podstawo- we, stanowiące bazę teoretyczną dla dalszych rozważań na temat corporate governance (część I), mechanizmy regulacyjne i wewnętrzne tworzące system nadzoru nad informacją udostępnianą właścicielowi (część II) i wreszcie audyt wewnętrzny oraz związane z nim problemy komunikacji prezentowane jako istotny element systemu kontroli wewnętrznej i jego środowiska (część III). W pierwszej części książki zostały omówione podstawowe problemy kon- cepcyjne obejmujące istotę oraz ogólny zarys modeli nadzoru korporacyjnego. Dokonany w niej przegląd definicji pojęcia corporate governance pozwolił na potwierdzenie niejednoznaczności pojęciowej. Umożliwił również wyodrębnienie atrybutów łączących wskazane definicje corporate governance. Poza prezentacją głównych założeń leżących u podstaw koncepcji zwrócono uwagę na kluczowe mierniki efektywności ładu korporacyjnego pozwalające na ocenę poziomu sku- teczności stosowanych w przedsiębiorstwie rozwiązań. Poruszono również pro- blematykę dotyczącą uprawnień i obowiązków zarządu spółki jako organu realizu- jącego obowiązki decyzyjne, odpowiedzialnego za jej funkcjonowanie. W drugiej części książki skupiono uwagę czytelnika na problematyce rapor- towania. Scharakteryzowano podstawowe problemy związane z implementacją odpowiednich mechanizmów regulacyjnych nakładających na zarządy spółek szerokie obowiązki sprawozdawcze. Zaakcentowano również fakt, iż zmieniają- ce się uwarunkowania gospodarcze oraz próba poszukiwania rozwiązań, których celem jest ograniczenie asymetrii informacyjnej pomiędzy zarządem a właści- cielem kapitału, wpływają na obserwowane wyraźne zmiany zakresu obowiąz- ków informacyjnych, mających na celu zapewnienie pełnej transparentności procesów zachodzących w spółce. Zgodnie z obowiązującym prawem bilanso-wym, pryncypał otrzymuje bowiem określony ustawowo minimalny zakres infor- macji o działalności przedsiębiorstwa. W przypadku dużych spółek, szczególnie tych notowanych na GPW, stopniowo zwiększa się zakres raportowanych infor- macji. Jako przykład można tutaj wymienić wprowadzenie omówionego w drugiej części książki obowiązku raportowania informacji niefinansowych czy też wpro- wadzenie nowych zasad raportowania realizacji dobrych praktyk spółek notowa- nych na GPW. Trafność oceny efektywności pracy zarządu dokonywanej przez „wypchniętego ze spółki” właściciela kapitału i możliwość reagowania w przy- padku zidentyfikowania ryzyka uzależnione są jednak od wiarygodności, a nie od ilości, informacji udostępnianej przez zarząd. Kluczowe znaczenie ma tutaj za- pewnienie odpowiednich mechanizmów corporate governance ograniczających ryzyko ewentualnych nieścisłości i zniekształceń. Istotną rolę odgrywa tu rada nadzorcza i działający w jej ramach komitet audytu. W drugiej części opracowania omówiono ich znaczenie w zapewnieniu skuteczności nadzoru korporacyjnego. Trzecia część książki zawiera rozważania dotyczące funkcjonowania i efek- tywności audytu wewnętrznego, prowadzone na tle wybranych aspektów obszaru komunikacji wewnętrznej w organizacji. Audyt stanowi jeden z kluczowych me- chanizmów wewnętrznych corporate governance. Jego szczególną rolę potwierdza fakt, iż to właśnie ta komórka zgodnie z DPSN 2021 odpowiedzialna jest za corocz- ną ocenę skuteczności systemu kontroli wewnętrznej spółki. Doświadczenie, przy- gotowanie merytoryczne oraz umiejętności komunikacyjne audytorów wewnętrz- nych są zatem istotnym czynnikiem zwiększającym szansę wykrycia ewentualnych słabości systemu zabezpieczającego przed nieprawidłowościami zarówno w obsza- rze raportowania, jak i w obszarze innych procesów realizowanych w przedsiębior- stwie. Co więcej, rekomendacje wydawane przez tą komórkę powinny wpływać na stałe doskonalenie skuteczności mechanizmów kontrolnych. Nie można zatem pominąć jej roli, prowadząc rozważania na temat skuteczności wewnętrznych me- chanizmów nadzoru korporacyjnego. Książka powstała głównie z myślą o czytelnikach, którzy chcą uczestniczyć w dyskusjach na temat roli mechanizmów corporate governance i potrzeby ich doskonalenia, a także tych, którzy chcą rozwijać swoje kompetencje praktyczne w tym obszarze. Budowanie potencjału praktycznego wymaga bowiem odpo- wiedniej podbudowy teoretycznej. Ważną grupę adresatów książki stanowią słuchacze kierunków podyplomowych studiów doskonalących kompetencje menadżerskie w obszarze corporate governance, a w szczególności kierunków Master of Corporate Governance i Master of Business Administration in Corpo- rate Governance. Autorzy, jako wykładowcy przedmiotów objętych programem wyżej wymienionych studiów podyplomowych, działają na rzecz zwiększania wśród kadry menadżerskiej świadomości roli mechanizmów nadzoru korpora- cyjnego zaimplementowanych w spółce oraz możliwości ich doskonalenia. Dziękuję recenzentowi niniejszej publikacji, Panu Prof. dr. hab. Janowi Jeża- kowi, za wszystkie cenne uwagi, które wpłynęły na proces doskonalenia opracowa- nia. Dziękuję również wszystkim uczestnikom projektu, którzy zechcieli wypowie- dzieć się w tak ważnej dla zarządzania jednostką gospodarczą kwestii i przygotowali materiał, który pozwolił na opracowanie niniejszej pracy. Mam nadzieję, że książka przekazana do rąk czytelników przyczyni się do zwiększenia zainteresowania pro- blematyką nadzoru korporacyjnego.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Jakość danych"

1

Hrabčák, Ladislav. "Rozpočtové (ekonomické) následky úniků na daních jako materiální pramen práva při přijímání nástrojů v boji proti tomuto jevu." In Interakce práva a ekonomie. Masaryk University Press, 2021. http://dx.doi.org/10.5817/cz.muni.m210-9934-2021-5.

Full text
Abstract:
Law and economics are inevitably connected. This is all the more true in financial law and tax law, where the interaction with the economy is perhaps the biggest. This is also characteristic of the area of fighting tax avoidance practices, as this issue has significant economic aspects. The aim of the article is to clarify the budgetary (economic) significance of taxes with reference to the situation in the conditions of the Czech Republic and to analyse the budgetary (economic) consequences of tax evasion having the nature of a material source of law in adopting instruments to combat this phenomenon.
APA, Harvard, Vancouver, ISO, and other styles
2

Rzymowski, Jakub. "Przetwarzanie danych osobowych w związku z samozatrudnieniem." In Stosowanie nietypowych form zatrudnienia z naruszeniem prawa pracy i prawa ubezpieczeń społecznych – diagnoza oraz perspektywy na przyszłość. Wydawnictwo Uniwersytetu Łódzkiego, 2023. http://dx.doi.org/10.18778/8331-395-5.21.

Full text
Abstract:
Rozdział dotyczy przetwarzania danych osobowych w związku z samozatrudnieniem i ze współpracą między osoba samozatrudnioną a innym przedsiębiorcą. Autor zastanawia się nad tym, jakie role z punktu widzenia RODO może przyjąć osoba samozatrudniona. Szczególnie dużo miejsca poświęcone jest osobie samozatrudnionej jako podmiotowi przetwarzającemu.
APA, Harvard, Vancouver, ISO, and other styles
3

Kruszyk, Robert. "Wybrane procedury kontroli jakości danych pomiarowych w programie ZMŚP na poziomie Centralnej Bazy Danych." In Współczesne przemiany naturalne i antropogeniczne środowiska przyrodniczego zlewni rzecznych i jeziornych. Bogucki Wydawnictwo Naukowe, 2022. http://dx.doi.org/10.12657/9788379864485-07.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Żołyński, Janusz. "Pracodawca jako zakład pracy informatyczny (cyfrowy) – stosowanie narzędzi matematycznych w nietypowych formach zatrudnienia." In Stosowanie nietypowych form zatrudnienia z naruszeniem prawa pracy i prawa ubezpieczeń społecznych – diagnoza oraz perspektywy na przyszłość. Wydawnictwo Uniwersytetu Łódzkiego, 2023. http://dx.doi.org/10.18778/8331-395-5.04.

Full text
Abstract:
Cywilizacja oraz rozwój współczesnego świata wygenerowały nowe, niezwykle dynamiczne zjawiska (niebędące jednak konsekwencją jakiejś idei polityczno-prawnej), które wymuszą stosowanie różnych rozwiązań, a także narzędzi technologicznych powiązanych ściśle z obszarem matematyki. Zjawisko to często określa się pojęciem digitalizacji, co w wąskim znaczeniu tego terminu utożsamiane jest z cyfryzacją i światem cyfrowym. Powoduje to, że pracodawca staje się podmiotem, wobec którego uprawnione jest przyjęcie terminologii, że jest zakładem informatycznym, którego jednym z elementarnych warunków umożliwiających prawidłowe funkcjonowanie są bezwzględnie narzucone regulacjami ius cogens określone obowiązki, których realizacja wymaga stosowania stałych procesów związanych z pozyskiwaniem informacji, ich gromadzeniem, przetwarzaniem, analizowaniem, archiwizowaniem, przesyłaniem, upowszechnianiem, usuwaniem oraz zarządzaniem informacją (danymi) we wszystkich obszarach społeczno-gospodarczych związanych ze stosunkami pracy. Konsekwencją tego zjawiska jest to, że zakład pracy informatyczny nie jest ideą, lecz powinien być rozumiany wyłącznie jako zjawisko gospodarcze, społeczne i prawne, jako wspólnota losów pracodawcy i pracowników (a właściwie zatrudnionych, gdyż w zakładzie pracy nie tylko pracownicy świadczą de facto pracę) oraz społecznych podmiotów prywatnych (związków zawodowych, organizacji pracodawców), które aktywnie uczestniczą w szeroko pojętym zakresie procesów dotyczących społecznych stosunków pracy. W tym celu przy zastosowaniu narzędzi informatycznych i dokonywaniu stosownych obliczeń liczbowych (matematycznych) intensywnie wykorzystują wszelkie zbiory danych (informacji), nie tylko na polu związanym bezpośrednio z pracą, lecz także dotyczących obszarów społecznych, socjalnych, ekonomicznych, finansowych (podatkowych), zdrowotnych, sportowych czy nawet kulturalnych oraz religijnych.
APA, Harvard, Vancouver, ISO, and other styles
5

Szczepańska, Aleksandra, Aleksandra Poniewierska, Sławomir Wacewicz, and Przemysław Żywiczyński. "Badania nad ewolucją języka w drugiej dekadzie XXI wieku." In Język(i) w czasie i przestrzeni. Wydawnictwo Uniwersytetu Łódzkiego, 2021. http://dx.doi.org/10.18778/8220-544-2.09.

Full text
Abstract:
Próby znalezienia odpowiedzi na pytanie, jak powstał język, podejmowane były już w starożytności, ale dopiero od lat 90. XX wieku możemy mówić o nauce o ewolucji języka jako o samodzielnej i w pełni ukształtowanej nauce. Przełomem, który się wówczas dokonał, był niewątpliwie odwrót od prac teoretycznych na rzecz badań empirycznych. Od tego czasu możemy zaobserwować dynamiczny rozwój badań nad ewolucją języka oraz stopniowe przeobrażanie się tego pola badawczego. Niniejsza praca ma na celu przybliżenie tego, w jakim kierunku zmieniała się ta stosunkowo młoda nauka w ostatniej dekadzie. Opisane są w niej dominujące trendy w najnowszych badaniach (multimodalność i ikoniczność), nowe sposoby gromadzenia i pozyskiwania danych (duże zbiory danych i korpusy) oraz zmiany instytucjonalne (m.in. konferencje i czasopisma naukowe), które wpłynęły na obecny kształt nauki o ewolucji języka.
APA, Harvard, Vancouver, ISO, and other styles
6

Szczepański, Wojciech. "Republika Czarnogóry jako potencjalny cel rosyjskich działań wywiadowczych (wprowadzenie do problemu)." In Bałkany Zachodnie w systemie bezpieczeństwa euroatlantyckiego, Bałkany XX/XXI, t. 7. Wydawnictwo Uniwersytetu Łódzkiego, 2015. http://dx.doi.org/10.18778/8088-028-3.24.

Full text
Abstract:
Czarnogóra, niepodległa od 3 czerwca 2006 r., jest jednym z mniejszych państw Europy. Stroną, która osiąga aktualnie istotną pozycję w realizacji na terytorium Czarnogóry przedsięwzięć biznesowych, jak również szpiegowskich, są Rosjanie. Ich gospodarczą obecność można próbować przedstawić za pomocą konkretnych danych (np. ilości udziałów w czarnogórskich przedsiębiorstwach, które poddane zostały w ostatnich latach procesowi przekształceń własnościowych). Czarnogóra, jako potencjalny cel rosyjskich działań wywiadowczych, stała się głównym tematem tego artykułu.
APA, Harvard, Vancouver, ISO, and other styles
7

Wawoczny, Magdalena. "Wpływ pandemii ­COVID-19 na zmiany w wielkości ruchu pasażerskiego transportu lotniczego w Polsce i na świecie." In Turystyka w okresie pandemii. Bogucki Wydawnictwo Naukowe, 2021. http://dx.doi.org/10.12657/9788379863501-19.

Full text
Abstract:
Wybuch pandemii ­COVID-19 spowodował ograniczenie przemieszczania się ludności na świecie, wskutek czego popyt na usługi transportowe gwałtownie spadł. Lotnictwo cechujące się dynamicznym rozwojem dziś ponosi duże straty, czego wyrazem jest kryzys tej branży. Celem rozdziału jest rozpoznanie wpływu pandemii na zmiany wielkości popytu na usługi lotnicze w Polsce i na świecie. Analiza literatury przedmiotu oraz danych wtórnych pozwoliła na zidentyfikowanie zmian wielkości ruchu pasażerskiego spowodowanych pandemią, ze szczególnym uwzględnieniem rynku chińskiego jako benchmarkingu dla branży lotniczej.
APA, Harvard, Vancouver, ISO, and other styles
8

Banach, Andrzej, Leszek Malinowski, Wiesław Wróblewski, and Ziemowit Malecha. "Badania autonomicznego aerostatu." In Mechanika w Lotnictwie ML-XX 2022. Instytut Techniczny Wojsk Lotniczych, 2023. http://dx.doi.org/10.15632/ml2022/7-13.

Full text
Abstract:
Artykuł przedstawia koncepcję zastosowania siły wyporności w autonomicznym aerostacie. W tym celu przeanalizowano historię aerostatów, ich konstrukcję oraz ograniczenia, warunki otoczenia, a następnie przeprowadzono symulację końcowej konstrukcji w tunelu aerodynamicznym za pomocą programu ANSYS Fluid. Autonomiczny bezzałogowy aerostat został zaprojektowany jako platforma do wykonywania misji obserwacyjnych, militarnych, naukowych oraz ratunkowych. Zintegrowany system bezzałogowych obiektów mógłby dawać możliwość dokładnego i długotrwałego okresu obserwacji, pomiaru czy re-transmisji danych w dowolnym miejscu na ziemi. Podczas badań obiekt został przebadany poprzez przeprowadzenie symulacji w wirtualnym tunelu aerodynamicznym pod kątem sprawdzenia siły nośnej oraz siły oporu.
APA, Harvard, Vancouver, ISO, and other styles
9

Sójkowska, Iwona. "Bibliotekarze i naukowcy jako inicjatorzy i realizatorzy otwartego dostępu do zasobów naukowych." In Repozytorium Uniwersytetu w Białymstoku. Wspólna droga do otwierania nauki. Wydawnictwo Uniwersytetu w Białymstoku, 2023. http://dx.doi.org/10.15290/10latrub.2023.01.

Full text
Abstract:
Artykuł wprowadza w zagadnienie otwartego dostępu do publikacji naukowych na świecie oraz w Polsce. Przedstawia istotne dokumenty, które miały wpływ na budowanie otwartości w nauce. Odwołuje się do inicjatorów open access oraz zwraca uwagę na rolę bibliotekarzy, szczególnie w Polsce, w promowaniu otwartości w środowiskach akademickich. Przybliża inicjatywy polskich pracowników bibliotek, których celem było budowanie świadomości korzyści, jakie niesie uwolnienie dostępu do publikacji naukowych. Relacjonuje budowanie otwartych baz danych ze szczególnym uwzględnieniem repozytoriów instytucjonalnych, ich znaczenia dla otwartej nauki oraz pracy, jaką włożyli i nadal świadczą bibliotekarze na rzecz zapewnienia infrastruktury i merytorycznego wsparcia uczelni.
APA, Harvard, Vancouver, ISO, and other styles
10

Duraj, Tomasz. "Zatrudnienie tymczasowe jako nietypowa forma świadczenia pracy – uwagi na tle obowiązującej regulacji prawnej." In Jurysprudencja 19. Zatrudnienie tymczasowe jako nietypowa forma świadczenia pracy. Wydawnictwo Uniwersytetu Łódzkiego, 2022. http://dx.doi.org/10.18778/8220-962-4.01.

Full text
Abstract:
Jedną z nietypowych form świadczenia pracy dynamicznie rozwijających się na polskim rynku pracy jest zatrudnienie tymczasowe, w ramach którego agencja pracy tymczasowej jako pracodawca (podmiot zatrudniający) angażuje pracowników lub osoby niebędące pracownikami w celu kierowania ich do wykonywania pracy tymczasowej na rzecz pracodawcy użytkownika. Według najnowszych danych opracowanych przez Polskie Forum HR liczba pracowników tymczasowych wzrosła z 433 000 w 2010 r. do 648 000 w 2021 r., a szacowana wartość całego polskiego rynku pracy tymczasowej wynosi obecnie ponad 3 mld złotych1. Celem opracowania jest wprowadzenie czytelnika w problematykę zatrudnienia tymczasowego, która była przedmiotem III Ogólnopolskiej Konferencji Naukowej z cyklu „Nietypowe stosunki zatrudnienia” zorganizowanej 3 grudnia 2020 r. w Łodzi, pod kierunkiem prof. UŁ dra hab. Tomasza Duraja, przez Centrum Nietypowych Stosunków Zatrudnienia WPiA UŁ. Autor prezentuje własne refleksje na tle Ustawy o zatrudnianiu pracowników tymczasowych po jej nowelizacji, która weszła w życie 1 czerwca 2017 r.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Jakość danych"

1

Gajda, Joanna. "Ruchy kobiece i aktywność kobiet jako przedmiot badań – szanse i wyzwania." In Ogólnopolska Konferencja Naukowa pt. „Ruchy kobiece na ziemiach polskich w XIX i XX w. Stan badań i perspektywy (na tle porównawczym)”. Wydawnictwo Uniwersytetu w Białymstoku, 2020. http://dx.doi.org/10.15290/rknzp.2020.02.

Full text
Abstract:
W dyskusji nad badaniami ruchów kobiecych i analizą aktywności kobiet warto zatrzymać się nad wyzwaniami związanymi z samym przedmiotem. W rzetelnym procesie badań jego definiowanie i konstruowanie nie powinno być pomijane. Różne podejścia wynikają z wielości paradygmatów, dyscyplin, kontekstów i zainteresowań badawczych. Operacjonalizacja przedmiotu determinuje sposób badania, czyli stosowane metody i techniki zbierania danych oraz ich analizy. Wyniki badań przeprowadzonych w różnych paradygmatach wydają się być nieporównywalne i całkowicie odrębne. Artykuł ma na celu przedstawienie głównych wyzwań i szans związanych z realizacją badań społecznych poprzez dookreślenie przedmiotu. Przedstawione zostaną inspirujące przykłady opartego o dane wtórne podejścia syntezy badań (research synthesis), które ma u podstaw założenie kumulatywnego charakteru wiedzy naukowej. Na przykładzie wybranych projektów opisane zostaną dobre praktyki oraz wyzwania, z którymi będzie mierzyć się badaczka lub badacz podejmujący temat aktywności kobiet w badaniach społecznych.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Jakość danych"

1

Łapińska, Justyna, Agata Sudolska, Joanna Górka, Iwona Escher, Grzegorz Kądzielawski, and Paweł Brzustewicz. Zaufanie pracowników do sztucznej inteligencji w przedsiębiorstwach przemysłowych funkcjonujących w Polsce. Raport z badania. Institute of Economic Research, 2020. http://dx.doi.org/10.24136/eep.rep.2020.1.

Full text
Abstract:
Sztuczna inteligencja (SI) coraz częściej wpływa na życie jednostek oraz funkcjonowanie społeczeństw jako całości. W ostatnim czasie rośnie również znaczenie sztucznej inteligencji w biznesie, w którym posiada ona coraz szerszy zakres zastosowań. Definicje sztucznej inteligencji różnią się w zależności od kontekstu, w którym to pojęcie jest używane. W najprostszym ujęciu przez sztuczną inteligencję rozumie się systemy lub maszyny na nich oparte, które naśladują ludzką inteligencję podczas wykonywania określonych zadań i dodatkowo mogą się interaktywnie doskonalić (uczyć) na podstawie zbieranych informacji. Postrzegane korzyści i zagrożenia związane z wdrażaniem w przedsiębiorstwach rozwiązań z zakresu sztucznej inteligencji mogą różnić się w zależności od tego, kto dokonuje oceny zjawiska. To, co dla pracodawcy stanowi korzyść (np. obniżenie kosztów pracy), przez pracowników może być postrzegane jako realne zagrożenie związane z utratą pracy (zastąpienie pracownika przez rozwiązania oparte o sztuczną inteligencję). Ograniczenie wspomnianych obaw będzie możliwe tylko wówczas, gdy sztuczna inteligencja będzie rozwijana i wdrażana w firmach w sposób właściwy, pozwalający zdobyć zaufanie pracowników. Zaufanie ukierunkowane na technologię jawi się jako niezwykle ważna i interesująca poznawczo kategoria. Zaufanie do technologii przejawia się w gotowości człowieka do bycia pod wpływem technologii, wynikającej z użyteczności tej technologii, przewidywalności skutków jej działania a także wiarygodności jej dostawców. Pojęcie zaufania do technologii odnosi się zatem do wiary, iż druga strona relacji – w tym przypadku technologia – będzie działać w sposób przewidywalny i niezawodny, zapewniający pozytywne rezultaty. Nie bez znaczenia jest tu również indywidualna skłonność jednostki do korzystania z technologii, będąca efektem jej cech osobowościowych, związanych m.in. z wcześniejszymi doświadczeniami, otwarciem na nowe doświadczania, chęcią ciągłego poznawania i uczenia się. Identyfikacja oraz pomiar zaufania do sztucznej inteligencji, rozumianej jako najbardziej zaawansowanej formy rozwoju technologii, jest swoistym wyzwaniem z uwagi na latentną naturę rozważanej zmiennej. Biorąc pod uwagę, że zaufanie pracowników do sztucznej inteligencji w przedsiębiorstwie jest konstruktem złożonym, wielowymiarowym i nieidentyfikowalnym bezpośrednio w zrealizowanym badaniu podjęto próbę jego opisu poprzez inne konstrukty badawcze złożone z elementów (zmiennych) identyfikowalnych, które odnoszą się do obserwowalnych cech. Konstrukty badawcze niższego szczebla to: ogólne zaufanie technologiczne, zaufanie do zaawansowanej technologii w przedsiębiorstwie, zaufanie wewnątrzorganizacyjne, indywidualne zaufanie kompetencyjne. Celem przeprowadzonego badania była ocena poziomu zaufania do sztucznej inteligencji pracowników przedsiębiorstw przemysłowych funkcjonujących w Polsce. Poziom wspomnianego zaufania zbadano w oparciu o cztery, wymienione wyżej, konstrukty badawcze niższego szczebla. Z uwagi na stosunkowo niski stopień rozpoznania w teorii i praktyce problematyki zaufania pracowników do sztucznej inteligencji, przeprowadzone badanie miało charakter eksploracyjny. Zostało zrealizowane w okresie luty–kwiecień 2020 r. w 29 przedsiębiorstwach funkcjonujących na terenie Polski. Ich dobór miał charakter celowy i wynikał z możliwości uzyskania w nich zgody na realizację pomiaru. Dobór respondentów w każdym z przedsiębiorstw miał także charakter celowy. Pomiar z udziałem wybranych w ten sposób osób zrealizowano metodą ankiety bezpośredniej. Wzięło w nim udział łącznie 792 respondentów. Opisane jednostki poddano pomiarowi w miejscu pracy. Stosownie do zaproponowanej metody zbierania danych, instrumentem pomiarowym wykorzystanym w badaniu był kwestionariusz ankietowy. Uzyskane wyniki poddano analizie w każdym z czterech zaproponowanych obszarów (konstruktów badawczych niższego rzędu), dokonano także syntetycznej oceny konstruktu złożonego, jakim jest zaufanie pracowników do sztucznej inteligencji w przedsiębiorstwie. Ocena syntetyczna wyniosła S=6,63 (w skali od 0 do 10) . Wynik ten należy interpretować z ostrożnym optymizmem, świadczy bowiem o umiarkowanie wysokim ogólnym zaufaniu pracowników do zaawansowanej technologii, w tym sztucznej inteligencji. Odwołując się do ocen cząstkowych dotyczących poszczególnych obszarów warto podkreślić, że owo zaufanie jest wspierane głównie przez indywidualne zaufanie kompetencyjne oraz zaufanie wewnątrzorganizacyjne. Te dwa komponenty zaufania są ze sobą ściśle powiązane. Wyniki badania wskazują jednocześnie na niższy poziom ocen uzyskanych w dwóch pozostałych komponentach opisywanego konstruktu, jakimi są ogólne zaufanie technologiczne oraz zaufanie do zaawansowanej technologii w przedsiębiorstwie.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!