Online prednáška: AI Responsibility Gaps (Medzery v zodpovednosti v AI)
Séria diskusií o zodpovednosti umelej inteligencie
Dňa 12. februára 2026 organizujeme úvodnú online prednášku AI Accountability Dialogue Series, série diskusií o zodpovednosti umelej inteligencie, venovanú aktuálnej téme „medzier v zodpovednosti“ pri systémoch umelej inteligencie. Našimi hosťami budú Daniela Vacek a Jaroslav Kopčan.
Daniela Vacek pôsobí na Filozofickom ústave SAV, v. v. i., v Kemplenovom inštitúte inteligentných technológií (KinIT) a na Filozofickej fakulte Univerzity Komenského v Bratislave. Je laureátkou ESET Science Award 2025 v kategórii Výnimočná osobnosť vedy na Slovensku do 35 rokov. Je slovenská filozofka špecializujúca sa na etiku umelej inteligencie, zodpovednosť, analytickú estetiku a filozofickú logiku. Vedie projekt APVV s názvom Filozofické a metodologické výzvy inteligentných technológií (TECHNE).
Jaroslav Kopčan pôsobí ako výskumný inžinier v Kemplenovom inštitúte inteligentných technológií (KinIT), kde sa špecializuje na spracovanie prirodzeného jazyka (NLP) a vysvetliteľnú umelú inteligenciu (XAI). Vo svojom výskume sa zameriava na automatizovanú analýzu obsahu a techniky vysvetliteľnosti pre menej zastúpené jazyky. Pracuje na vývoji interpretovateľných NLP systémov a nástrojov s dôrazom na destiláciu znalostí.
Dátum a čas: štvrtok, 12. februára 2026 | 10:00 CET
Miesto: Online | Účasť zdarma
Prednáška bude prebiehať v anglickom jazyku.
O medzerách v zodpovednosti pri umelej inteligencii prebieha rozsiahla debata. Tieto medzery zodpovedajú situáciám normatívneho nesúladu: niekto by síce mal niesť zodpovednosť za to, čo sa stalo, no nikto ju nenesie. Tradične sa považujú za zakorenené v nedostatku primeraných znalostí o tom, ako systém umelej inteligencie dospel k svojmu výstupu, a v nedostatku kontroly nad týmto výstupom. Hoci mnohí ľudia zapojení do vývoja, výroby, nasadzovania a používania systému umelej inteligencie majú určité znalosti a kontrolu, nikto z nich nemá znalosti a kontrolu potrebné na to, aby niesol zodpovednosť za dobré či zlé výstupy tohto systému. Do akej miery je tento nedostatok znalostí a kontroly na úrovni výstupov prítomný v súčasných systémoch umelej inteligencie?
Z technického hľadiska sa relevantné znalosti a kontrola často obmedzujú na všeobecné vlastnosti systémov umelej inteligencie, nie na konkrétne výstupy. Aktéri zvyčajne rozumejú dizajnu systému, procesom trénovania a celkovým vzorcom správania a môžu ovplyvňovať správanie systému prostredníctvom dizajnových rozhodnutí, tréningových metód a obmedzení nasadenia. Často im však chýba vhľad do toho, ako vzniká konkrétny výstup v konkrétnom prípade, a nemajú spoľahlivé prostriedky na intervenciu na tejto úrovni.
Prednáška ponúkne niekoľko poznatkov k týmto otázkam. Okrem toho ukážeme, že obraz je ešte komplikovanejší. Existujú rôzne formy zodpovednosti, pričom každá je spojená s odlišnými podmienkami, ktoré musia byť splnené. V súlade s tým niektoré formy zodpovednosti zostávajú neproblematické aj v prípade výstupov systémov umelej inteligencie, zatiaľ čo iné sa ukazujú ako náročnejšie.
Prednáška o HPC, AI a kariérnych príležitostiach 15 mar - Na Obchodnej fakulte Ekonomickej univerzity v Bratislave (EUBA) sa 10. marca 2026 uskutočnila prednáška z praxe venovaná aktuálnym trendom v oblasti vysokovýkonného počítania (HPC), umelej inteligencie (AI) a kariérnym príležitostiam v digitálnom prostredí.
AI a superpočítače v praxi: prednáška pre študentov TUKE 13 mar - Dňa 5. marca 2026 sa na Technickej univerzite v Košiciach (TUKE) uskutočnila odborná prednáška Dr. Lucie Malíčkovej z Národného superpočítačového centra (NSCC) s názvom „Môžu byť superpočítač a umelá inteligencia užitoční?“. Podujatie sa konalo v posluchárni PK7 v hybridnom formáte (online aj prezenčne) a zúčastnilo sa ho 110 študentov TUKE.
Zodpovednosť už v návrhu: Od štandardov pre AI k praxi a certifikácii 12 mar - Ako Akt EÚ o AI premieňa harmonizované normy na reálne testovanie a certifikáciu umelej inteligencie. Zistite, ako sa Akt EÚ o AI posúva od regulačného textu k technickej implementácii — a čo to znamená pre organizácie, ktoré vyvíjajú a nasadzujú systémy AI.
