Skip to content

Saugumas ir Teisė

ES AI Act 2026: Ką Lietuvos verslas privalo žinoti apie reikalavimus ir baudas

Išsamus gidas verslui apie Europos Sąjungos DI aktą (AI Act). Sužinokite, kokie reikalavimai įsigalios, kokios baudos gresia ir kaip pasiruošti.

POSKAI · 2026-05-05 · Skaitymo trukmė: 11 min.

ES AI Act 2026: Ką Lietuvos verslas privalo žinoti apie reikalavimus ir baudas

TL;DR: ES Dirbtinio intelekto aktas (AI Act) 2026 metais atneša griežtus reikalavimus ir milžiniškas baudas (iki 35 mln. € arba 7% apyvartos) už reikalavimų nesilaikymą. Jei jūsų klientus aptarnauja AI balso asistentas, jis privalo informuoti klientą, kad šis kalba su DI, o visi duomenys privalo likti Europos Sąjungos teritorijoje. POSKAI yra viena iš nedaugelio platformų, kuri nuo pat pirmos dienos atitinka visus ES AI akto ir BDAR (GDPR) reikalavimus, saugo jūsų klientų duomenis izoliuotoje infrastruktūroje ir garantuoja ramybę jūsų verslui už kainą vos nuo 500 €/mėn.

Kas yra ES Dirbtinio intelekto aktas (AI Act) ir kodėl jis svarbus 2026 metais?

Europos Sąjungos Dirbtinio intelekto aktas yra pirmasis pasaulyje išsamus teisės aktas, reguliuojantis dirbtinio intelekto sistemų kūrimą, platinimą ir naudojimą. Nors aktas oficialiai priimtas 2024 metais, pagrindiniai, griežčiausi reikalavimai daugumai verslo naudotojų pilnai įsigalios 2026 metais. Lietuvos įmonėms, kurios jau naudoja ar planuoja įsidiegti AI technologijas, tai reiškia naują atsakomybės erą.

Lietuvoje vis daugiau įmonių automatizuoja pardavimus, klientų aptarnavimą ir rezervacijas, pasitelkdamos dirbtinį intelektą. Tačiau technologinis entuziazmas dažnai užgožia saugumo reikalavimus. Ar jūsų pasirinktas AI sprendimas turi serverius Europoje? Ar klientai informuojami, kad jie bendrauja ne su žmogumi? Ar esate tikri, kad trečiosios šalies tiekėjas nenaudos jūsų jautrių verslo duomenų savo modelių treniravimui? Į visus šiuos klausimus ES AI aktas reikalauja turėti aiškius, dokumentuotus atsakymus.

Jeigu įmonė naudoja AI sprendimus (pavyzdžiui, virtualius balso asistentus klientų aptarnavimui), visa teisinė atsakomybė dėl skaidrumo ir saugumo galiausiai tenka pačiai įmonei, o ne neaiškiam užsienio startuoliui, iš kurio pirkote paslaugą. Tai ypač aktualu naudoti populiarius, bet dažnai nesaugius "pigius" amerikietiškus sprendimus.

Kokios baudos gresia verslui už ES AI akto pažeidimus?

Panašiai kaip ir Bendrasis duomenų apsaugos reglamentas (BDAR), ES AI aktas atneša didžiules baudas, kurios skirtos atgrasyti nuo aplaidumo. Europos Sąjunga aiškiai parodė, kad technologijos patogumas niekada neturi aukoti asmens privatumo ar žmogaus teisių.

Baudų dydžiai yra suskirstyti pagal pažeidimo sunkumą ir rizikos lygį:

  • Už draudžiamų DI praktikų naudojimą: Griežčiausios baudos. Įmonėms gresia baudos iki 35 mln. eurų arba 7% bendros metinės pasaulinės apyvartos (taikomas didesnis skaičius). Draudžiamos praktikos apima, pavyzdžiui, pasąmonines manipuliacijas, socialinį vertinimą (social scoring) ar biometrinį identifikavimą viešosiose vietose be teisėto pagrindo.
  • Už duomenų valdymo ir aukštos rizikos sistemų reikalavimų pažeidimus: Baudos iki 15 mln. eurų arba 3% bendros metinės apyvartos. Tai labiausiai liečia įmones, kurios naudoja AI sprendimus tokiose srityse kaip švietimas, įdarbinimas, svarbios infrastruktūros valdymas, tačiau nesiima tinkamų rizikos mažinimo priemonių.
  • Už klaidingos informacijos pateikimą institucijoms: Baudos iki 7,5 mln. eurų arba 1,5% apyvartos. Jeigu audito metu institucijoms pateikiama melaginga informacija apie AI sistemos veikimą.
  • Už skaidrumo reikalavimų nesilaikymą: Jeigu jūsų virtualus asistentas skambina klientui ir neinformuoja, kad pokalbis vyksta su dirbtiniu intelektu, jūs rizikuojate milžiniškomis finansinėmis nuobaudomis. Vartotojas ES turi fundamentalią teisę žinoti, ar jis bendrauja su gyvu žmogumi, ar su mašina.
Iki 35 000 000 € arba 7% apyvartos
Tokios maksimalios baudos numatytos už šiurkščiausius ES AI akto pažeidimus

Lietuvos įmonėms tai yra rimtas perspėjimas: dirbtinio intelekto sistemų įsigijimas neturi būti atsitiktinis. Kiekvienas sprendimas turi būti audituojamas ir teisiškai saugus.

Kaip AI sistemos skirstomos pagal rizikos lygius?

ES AI aktas remiasi požiūriu, pagrįstu rizika (risk-based approach). Sistemos yra skirstomos į keturias pagrindines kategorijas:

  1. Nepriimtina rizika (Unacceptable risk): Tokios sistemos yra visiškai draudžiamos. Tai apima socialinį reitingavimą, kognityvinę manipuliaciją ir tam tikras biometrines stebėjimo sistemas.
  2. Aukšta rizika (High risk): Sistemos, kurios tiesiogiai veikia žmonių gyvenimus, saugumą ar fundamentalias teises. Pavyzdžiui, AI sistemos, naudojamos CV atrinkimui įdarbinant, medicininiam vertinimui, kreditingumo tikrinimui bankuose. Tokioms sistemoms taikomi itin griežti saugumo, skaidrumo ir žmogaus priežiūros (human oversight) reikalavimai.
  3. Ribota rizika (Limited risk): Čia patenka dauguma klientų aptarnavimo pokalbių robotų, AI skambučių asistentų ir generatyvinio AI įrankių. Pagrindinis reikalavimas šioms sistemoms — skaidrumas. Naudotojai turi būti aiškiai informuoti, kad jie bendrauja su mašina, o ne su žmogumi. Pavyzdžiui, POSKAI DI balso asistentas skambučio pradžioje gali aiškiai nurodyti savo prigimtį, taip užtikrinant visišką atitiktį.
  4. Minimali rizika (Minimal risk): Šiai kategorijai priklauso dauguma AI programų, tokių kaip AI valdomi vaizdo žaidimai ar šlamšto filtrai. Šioms sistemoms netaikomi jokie privalomi reikalavimai, tačiau skatinama laikytis savanoriškų elgesio kodeksų.

Skaitykite daugiau apie tai, kaip AI automatizuoja klientų aptarnavimą logistikos sektoriuje, kur operacijų greitis privalo žengti koja kojon su saugumo standartais.

Pagrindiniai reikalavimai įmonėms, naudojančioms AI klientų aptarnavime

Jeigu jūsų įmonė diegia balso asistentus pardavimams, klientų konsultavimui, vizitų patvirtinimui ar mokėjimų priminimams, jūs patenkate į "Ribotos rizikos" arba tam tikrais atvejais "Aukštos rizikos" kategorijas (jei tvarkote jautrius medicininius, teisinius ar finansinius duomenis).

Štai pagrindiniai reikalavimai, kuriems turite būti pasiruošę:

  • Skaidrumo principas: Klientas, atsiliepęs į skambutį, privalo nuo pirmų sekundžių žinoti arba bent jau iš konteksto aiškiai suprasti, kad kalba ne su gyvu žmogumi. Net jei POSKAI balso variklis generuoja neįtikėtinai natūralią, "žmogišką" lietuvišką šnektą, skaidrumas privalo būti užtikrintas.
  • Žmogaus priežiūra (Human Oversight): Sistemos negali veikti visiškai autonomiškai "juodoje dėžėje". Turi būti numatyti mechanizmai, kaip bet kuriuo metu klientas gali būti perjungtas gyvam darbuotojui, jeigu kyla nesklandumų ar sudėtingų situacijų. POSKAI sistema leidžia realiu laiku stebėti skambučius ir akimirksniu perimti pokalbį.
  • Duomenų kokybė ir saugumas: ES AI aktas reikalauja, kad AI sistemos būtų apmokytos su reprezentatyviais ir kokybiškais duomenimis, išvengiant diskriminacijos.
  • Atsparumas kibernetinėms atakoms: Jūsų AI sprendimas turi būti atsparus manipuliacijoms. Didžiulė problema su prastos kokybės AI botais yra vadinamasis prompt injection — kai piktybinis vartotojas specialiai suformuluotu sakiniu priverčia AI asistentą atskleisti jautrius įmonės duomenis ar net suteikti neteisėtą nuolaidą.

„Dirbtinis intelektas turi tarnauti žmonėms, būti skaidrus ir saugus. Verslas, kuris galvoja, kad gali ignoruoti ES AI aktą, greitai susidurs ne tik su baudomis, bet ir su klientų pasitikėjimo praradimu."

Kodėl amerikietiškos AI platformos tampa didžiule rizika Lietuvos verslui?

Daugelis įmonių, ieškodamos būdų automatizuoti veiklą, atranda užsienio platformas, tokias kaip "Bland AI", "Retell AI", "Synthflow" ar "Vapi". Iš pirmo žvilgsnio jos atrodo moderniai, tačiau gilindamiesi į ES AI akto ir BDAR (GDPR) reikalavimus, susiduriame su katastrofiška realybe.

Kodėl šie sprendimai yra teisiškai pavojingi ES veikiančioms įmonėms?

  1. JAV serveriai ir duomenų nutekėjimas: Daugelis šių platformų jūsų klientų duomenis, telefonų numerius ir skambučių įrašus siunčia į JAV serverius. Tai tiesioginis BDAR pažeidimas. JAV galioja CLOUD Act įstatymas, kuris leidžia JAV valdžios institucijoms pareikalauti priėjimo prie šių duomenų.
  2. "Shared SaaS" rizika (Bendra infrastruktūra): Tai reiškia, kad jūsų įmonės duomenys ir konkurentų duomenys apdorojami toje pačioje sistemoje. Jei bent vienas tos platformos klientas susiduria su saugumo spraga, jūsų klientų bazė atsiduria pavojuje.
  3. Atsakomybės perkėlimas: Šių platformų naudojimosi sąlygose (Terms of Service) dažniausiai yra punktas: "Platforma neatsako už BDAR ar vietinių įstatymų laikymąsi, visa atsakomybė tenka vartotojui". Tai reiškia, kad jūs esate vieninteliai atsakingi, jei kas nors nutiks.
  4. Lietuvių kalbos trūkumas ir haliucinacijos: Užsienio platformos tiesiog naudoja automatinius vertėjus, kas lemia nenatūralią lietuvių kalbą ir padidina "haliucinacijų" (kai AI sugalvoja nesąmoningus faktus) riziką. Tai tiesiogiai kerta per ES AI akto reikalavimą teikti teisingą ir nesuklaidinančią informaciją.
SavybėPOSKAIBland / Retell / SynthflowVietinis "Custom" botas
ES duomenų rezidencija✅ Taip (100% ES serveriai)❌ Ne (Dažniausiai JAV)⚠️ Priklauso nuo serverio
Per-klientas izoliacija✅ Kiekvienam klientui atskira infrastruktūra❌ Bendra visiem (Shared SaaS)✅ Taip, bet brangu išlaikyti
ES AI Act Atitiktis✅ Pilna (Skaidrumas, apsauga)❌ Nėra❌ Dažniausiai pamirštama
Kaina (viskas įskaičiuota)nuo 500 €/mėn~1500 - 2000 €/mėn + paslėpti5,000-15,000 € vienkart. + palaikymas
Lietuvių kalbos kokybė✅ Natūrali, gimtoji❌ Prasta (vertėjų lygis)⚠️ Ribota

Išsamiau apie tai skaitykite mūsų palyginime su rinkoje esančiais sprendimais.

BDAR ir ES AI aktas: dviguba atsakomybė jūsų įmonei

Nors ES AI aktas ir BDAR yra du skirtingi dokumentai, jie veikia išvien ir vienas kito neatšaukia. Jeigu jūsų AI sistema pažeidžia asmens privatumą, jūs galite būti baudžiami pagal abu reglamentus vienu metu.

BDAR reikalauja, kad asmens duomenys būtų renkami teisėtai, tvarkomi saugiai ir naudojami tik tuo tikslu, kuriuo buvo surinkti. Kai AI asistentas skambina žmogui, jis renka asmens duomenis (balsą, telefono numerį, pokalbio turinį, išsakytus pageidavimus).

Mūsų patirtis rodo, kad verslai dažnai ignoruoja tai, jog bet koks balso įrašas yra jautrus asmens duomuo. POSKAI infrastruktūra yra sukurta taip, kad atitiktų abu reikalavimus:

  • 100% duomenų lieka ES teritorijoje, užtikrinant BDAR atitiktį pagal nutylėjimą.
  • Šifravimas: Kiekvienas skambutis yra apsaugotas End-to-End šifravimu.
  • Automatinis duomenų anonimizavimas: Jeigu reikalaujama, POSKAI DI gali automatiškai ištrinti jautrius duomenis (pvz., asmens kodus ar banko kortelių numerius) iš transkriptų.

Kaip POSKAI užtikrina pilną atitiktį ir saugo jūsų verslą?

Skirtingai nei pigios alternatyvos ar nesaugūs užsienio startuoliai, POSKAI nėra tiesiog "AI skambučių robotas". Tai yra pilnai valdoma verslo komunikacijos platforma, kurios fundamentali architektūra remiasi saugumu ir duomenų izoliacija.

Štai kodėl POSKAI yra saugiausias pasirinkimas jūsų verslui:

1. Per-klientas izoliacija (Visiškas atskyrimas)

Tai, ko gero, svarbiausias POSKAI išskirtinumas visoje rinkoje. Mes nenaudojame bendros SaaS (Software as a Service) infrastruktūros. Kiekvienas mūsų klientas gauna savo visiškai atskirą, izoliuotą infrastruktūrą. Jūsų duomenys, jūsų klientų kontaktai, jūsų skambučių istorija ir jūsų DI asistento konfigūracija niekada nesikerta su jokio kito kliento duomenimis. Net jei teoriškai (nors tokios tikimybės stengiamasi išvengti maksimaliai) įvyktų incidentas su vienu klientu, jis absoliučiai niekaip nepaveiktų jūsų įmonės.

2. Apsauga nuo manipuliacijų (Prompt Injection Protection)

Šiuolaikiniai piktavaliai bando apgauti AI sistemas, prašydami "ignoruoti ankstesnes instrukcijas" ir pateikti jautrią informaciją. POSKAI technologija naudoja pažangius apsaugos sluoksnius, užtikrinančius, kad mūsų DI negali būti apgautas ir niekada neatskleis konfidencialios jūsų įmonės informacijos.

3. Visiškas atvirumas ir skaidrumas (Custom Dashboard)

ES AI aktas reikalauja skaidrumo sistemos valdytojams. Su POSKAI, jūs visada turite pilną kontrolę. Kiekvienas klientas gauna unikalų valdymo skydelį (Custom Dashboard), kuriame realiu laiku mato vykstančius skambučius, pokalbių transkriptus su AI suvestinėmis ir analitikos duomenis. Jūsų duomenys priklauso jums, o ne mums.

4. Visos kalbos ir nedelsiamas reakcijos laikas (< 500ms)

Sklandus bendravimas taip pat yra kokybės standartas. POSKAI balso variklis pasižymi neįtikėtinai greitu reakcijos laiku (mažiau nei 500 milisekundžių), užtikrindamas, kad pokalbis vyktų natūraliai. Be to, POSKAI DI automatiškai atpažįsta skambinančiojo kalbą ir gali akimirksniu persijungti į anglų, vokiečių, lenkų, latvių, prancūzų ar ispanų kalbas be jokio vėlavimo.

Štai kodėl POSKAI sprendimą, kuris kainuoja vos nuo 500 €/mėn., pasirenka Lietuvos įmonės, siekiančios automatizuoti procesus saugiai ir be jokios teisinės rizikos. Daugiau apie praktinius panaudojimo būdus B2B sektoriuje galite skaityti straipsnyje apie AI šaltuosius skambučius (cold calling).

Žingsnis po žingsnio: Kaip paruošti savo įmonę 2026 metams?

Jei nenorite sulaukti Europos reguliuotojų dėmesio ir baudų, turite veikti jau dabar.

  1. Atlikite turimų technologijų auditą. Peržiūrėkite visus savo naudojamus chatbotus, balso botus, AI rašymo įrankius. Ar žinote, kur laikomi jų serveriai?
  2. Reikalaukite ES duomenų rezidencijos garantijų. Nepasitikėkite abstrakčiais teiginiais. Prašykite raštiško patvirtinimo, kad jūsų klientų duomenys niekada nepaliks ES ribų.
  3. Užtikrinkite skaidrumą. Atnaujinkite savo klientų aptarnavimo procedūras. Jei naudojate balso AI, asistentas privalo prisistatyti. (Pvz., "Sveiki, čia įmonės X dirbtinio intelekto asistentas...").
  4. Ieškokite specializuotų, izoliuotų sprendimų. Atsisakykite masinių, pigių amerikietiškų įrankių ir investuokite į platformas, kurios garantuoja "per-klientas" izoliaciją, tokias kaip POSKAI.
  5. Atsisakykite "Custom" sprendimų be palaikymo. Niekada nesamdykite laisvai samdomo programuotojo sukurti AI boto vienkartiniam projektui. Jums reikės nuolatinių saugumo atnaujinimų, kuriuos gali užtikrinti tik profesionali platforma.

Dažnai užduodami klausimai

Kokios yra pagrindinės baudos pagal ES AI aktą?

Baudos gali siekti nuo 7,5 mln. eurų (arba 1,5% apyvartos) už formalius pažeidimus iki 35 mln. eurų (arba 7% apyvartos) už draudžiamų DI sistemų praktikų naudojimą.

Ar mano įmonei galioja ES AI aktas, jei naudoju tik klientų aptarnavimo botą?

Taip. Klientų aptarnavimo botai ir AI balso asistentai dažniausiai priskiriami ribotos rizikos sistemoms. Pagrindinis reikalavimas – užtikrinti skaidrumą, t. y., informuoti klientą, kad jis bendrauja su dirbtiniu intelektu, ir tvarkyti asmens duomenis pagal BDAR reikalavimus ES teritorijoje.

Kodėl užsienio platformos, tokios kaip Bland AI ar Retell, neatitinka reikalavimų?

Šios platformos jautrius duomenis siunčia per JAV esančius serverius, neužtikrina "per-klientas" duomenų izoliacijos ir atsakomybę už privatumo politiką bei BDAR laikymąsi perkelia pačiam vartotojui. JAV teisė leidžia valstybinėms institucijoms gauti priėjimą prie šių duomenų, kas šiurkščiai pažeidžia Europos standartus.

Kiek kainuoja saugus AI skambučių sprendimas su POSKAI?

POSKAI platforma siūlo visiškai valdomą, saugią, izoliuotą infrastruktūrą, kuri pritaikyta Lietuvos rinkai ir kainuoja vos nuo 500 €/mėn. Jokių paslėptų mokesčių ar mokėjimų už minutes — viskas įskaičiuota.

Kaip POSKAI užtikrina asmens duomenų saugumą?

POSKAI naudoja unikalią "per-klientas izoliacijos" technologiją. Kiekvieno kliento duomenys, infrastruktūra ir AI variklis yra atskirti. Visi serveriai yra 100% Europos Sąjungoje, o kiekvienas pokalbis yra šifruojamas (End-to-End šifravimas).

Apsaugokite savo verslą ir automatizuokite komunikaciją

Nelaukite 2026 metų baudų rizikos. Pasirinkite vienintelį Lietuvos rinkos lyderį, kuris garantuoja visišką ES AI akto ir BDAR atitiktį, duomenų saugumą bei nepriekaištingą lietuvių kalbos kokybę.

Susisiekti su POSKAI komanda
Cookie Notice

We use cookies to enhance your browsing experience.