This text presents an analysis of the recent emphasis in HIV/AIDS prevention campaigns: the discursive constructions of HIV/AIDS as an issue of risk and its management. Specifically, the text discusses the prevention materials produced by state-funded institutions in the Czech Republic. The aim of the text is twofold: First, it analyses the specific discourse (and rationality) of risk that permeates HIV/AIDS prevention in relation to and as a part of modern biopolitics and (self-)governance. Second, the text examines the discourse of risk for its gendered implications and its re-inscription of gendered power inequalities., Kateřina Kolářová., Obsahuje bibliografii, and Anglické resumé
Jednou z ústredných etických obáv, ktoré vyvoláva vyhliadka na použitie vojenských autonómnych smrtiacich robotov, je otázka morálnej zodpovednosti za ich konanie. Robert Sparrow tvrdí, že vojenské roboty vybavené schopnosťou učiť sa by boli natoľko nezávislé a samostatné, že by umožnili ľudským aktérom odmietnuť zodpovednosť za ich konanie, čím by vznikla situácia, ktorú Andreas Matthias označil ako „medzeru v zodpovednosti“. Medzera v zodpovednosti je stav, keď nie je nikto zodpovedný za konanie učiacich sa autonómnych robotov. Tento stav je dôsledkom neschopnosti ľudí plne kontrolovať a predpovedať konanie takýchto technológií. V článku argumentujem, že uvedený záver je nesprávny, pretože autonómne technológie nezbavujú ľudí zodpovednosti za dôsledky ich použitia. Kontrola a predvídateľnosť nie sú nevyhnutnou podmienkou pripísania zodpovednosti. Vzhľadom na riziká, ktoré použitie takýchto zbraní predstavuje, sú tí, ktorí ich vytvárajú alebo používajú, morálne zodpovední za ich konanie. Hoci nasadenie autonómnych smrtiacich zbraní nemusí byť dobrý nápad, „medzera v zodpovednosti“ ich ešte nerobí nemorálnymi., One of the primary ethical concerns raised by the prospect of using military autonomous killer robots is the question of the moral responsibility for their use. Robert Sparrow argues that military robots fitted up with the ability to learn would be so independent and self-contained that they would allow human actors to deny responsibility for their use, creating a situation that Andreas Matthias called a “responsibility gap.” A responsibility gap occurs in situations where no one is responsible for the actions of autonomous learning robots. This situation results from the inability of people to fully control and predict the actions of these technologies. In the article, I argue that this conclusion is not a correct one because autonomous technologies do not mitigate people of responsibility for the consequences of using them. Control and predictability are not inevitable prerequisites for attributing responsibility. Given the risks that the use of such weapons presents, those who create or use these weapons are morally responsible for the weapons’ actions. Even though the deployment of autonomous lethal weapons might not be a good idea, the “responsibility gap” does not by itself make them immoral., and Eine der zentralen ethischen Befürchtungen, hervorgerufen durch die reale Aussicht auf die Anwendung tödlicher autonomer Waffensysteme, ist die Frage nach der moralischen Verantwortung für deren Wirken. Robert Sparrow behauptet, dass lernfähige Militärroboter in einem Maße unabhängig und selbstständig seien, dass sie es den beteiligten Human-Akteuren ermöglichten, die Verantwortung für das Tun dieser Roboter abzulehnen. Dadurch entstünde eine Situation, die Andreas Matthias als „Verantwortungslücke“ bezeichnet. Eine Verantwortungslücke ist ein Zustand, in dem niemand für das Wirken lernfähiger autonomer Roboter verantwortlich ist. Dieser Zustand ist die Folge der Unfähigkeit des Menschen, die Handlungen dieser Technologien vollständig zu kontrollieren und vorherzusehen. Die Argumentation im Artikel zielt auf eine Ablehnung dieser These, da autonome Technologien den Menschen nicht von der Verantwortung für die Folgen ihrer Anwendung entbinden. Kontrolle und Vorhersehbarkeit sind keine unabdingbaren Voraussetzungen für die Zuschreibung von Verantwortung. In Anbetracht der Risiken, die sich aus der Anwendung derartiger Waffensysteme ergeben, sind diejenigen, die diese Systeme entwickeln oder einsetzen, moralisch für das Wirken dieser Waffen verantwortlich. Obwohl der Einsatz tödlicher autonomer Waffensysteme nicht unbedingt eine gute Idee sein muss, macht die „Verantwortungslücke“ sie nicht unbedingt unmoralisch
The article describes use of fuzzy logic in the evaluation of nonlimited values at measurement of lightning arresters in telecommunication networks. It describes the application of Γa-cut method and evaluates their electrical parametres and functional features based on the measurement of a selected sample of lightning arresters. and Článek popisuje využití fuzzy logiky v oblasti mimolimitních hodnot při měření bleskojistek nasazených v telekomunikačních sítích. Popisuje aplikaci metody αa-řezů, hodnotí elektrické parametry a funkční vlastnosti bleskojistek založené na měření vybraného vzorku.