За адвокатурата и изкуствения интелект
- gospodinov6
- 21.11.2025 г.
- време за четене: 15 мин.
Трябва ли адвокатите в България да се саморегулираме при използването на ИИ?

Изкуственият интелект (ИИ) вече не е хипотетично бъдеще, нито екзотична тема за технологични конференции. Той е тук – трансформиращ, мощен и неизбежен. От появата на ChatGPT в края на 2022-ра изминаха 3 години, през които навлизането на различни приложения с ИИ в бизнеса и обществения живот нараства експоненциално. Адвокатурата не е изключение от този процес.
Водещи в тази технологична революция са американските кантори, където внедряването на езикови модели в работните процеси е вече силно напреднало. Големите играчи стигнаха до там да разработват собствени агенти за решаване на юридически задачи в сътрудничество с технологични стартъпи в областта на правото[1]. А Perplexity, известна онлайн търсачка под формата на чатбот, от скоро предлага вградени адвокатски услуги в сътрудничество с платформата Legal Zoom[2].
В Европа, в това число и в България, нещата се случват малко по-бавно, разбира се, заради по-предпазливия подход към технологията и специфичните традициите при уредба на адвокатската професия. Но и тук все повече кантори инвестират във внедряването на решения с изкуствен интелект, постепенно навлизат и специализирани клауд решения, а използването на приложенията с общо предназначение като ChatGPT, Gemini, Claude и др. е повсеместна практика.
Всичко това не е случайно. Приложенията, базирани на ИИ, притежават потенциала драстично да облекчат професията на адвоката и да подобрят достъпа до правосъдие, сравним единствено с появата на компютъра или правно-информационните системи в миналото. Тази технология обаче върви с много сериозни рискове, които засягат интересите на адвокатурата и нейните клиенти, както и на правосъдието като цяло.
На този фон изпъква недостигът на ясни правила, които да дадат ориентир на адвокатите в бурното море от промени. Докато колеги в цяла Европа вече работят с насоки за безопасност и етика, в България функционираме в пълен регулаторен вакуум. Миналогодишната конференция на САК по случай Деня на адвоката бе посветена на изкуствения интелект, но единственият резултат от иначе интересната дискусия беше представянето на Насоките на Международната асоциация на адвокатите (UIA)[3], но нищо задължително.
Считам, че при тези обстоятелства е време поне да си зададем въпроса – нужна ли е регулация на използването на ИИ от българската адвокатура или не? И ако да – поне да започнем разговора каква да бъде тя?
Теза
Твърдя, че системите с изкуствен интелект имат потенциала да трансформират адвокатската професия за добро и за винаги. Липсата на каквито и да е обвързващи правила за използването им от българската адвокатура обаче създава несигурност и недоверие, които могат или да подкопаят устоите на професията, или да блокират навлизането на иначе полезната технология. С настоящото есе призовавам да започнем дебата за бъдещата регулация, като ще направя обзор на ползите от системите с ИИ и рисковете, които ги съпътстват.
Ползите
I. Приложения
Едва за две-три години от своята общодостъпна фаза, системите с ИИ навлязоха в адвокатската работа по всевъзможни начини. Разбира се, първоначалните представи за самостоятелно функциониращия „робот-адвокат“ са далеч от истината и вероятно там ще си и останат с настоящата технология. Вместо това наблюдаваме едно тихо и прагматично въвеждане на езикови модели в отделни функционални области от практиката на адвоката като:
1. Правна информатика
Тук е очевидното и моментално приложение на технологията[4], чиито езикови модели имат способността да четат неструктурирани данни (текст) и да извличат структура (смисъл) от тях. Моментално с ChatGPT, а след това и със специализирани инструменти се започна използването им за търсене на съдебна практика, нормативни актове или просто като един по-подробен Google Search. Няма спор, че при все несъвършенствата на езиковите модели, те могат да спестят часове работа в ровене на текст на всеки адвокат.
2. Администрация и управление
Модели на ИИ все повече се вграждат в системи за управление на ресурси (ERP), за анализ на данни или друг специализиран адвокатски софтуер за управление. В резултат много по-лесно могат да се отчитат часовете работа, да се осчетоводяват финансови операции, да се анализират неефективности и други управленски задачи.
3. Обслужване на клиенти
Тук технологията запълва пропастта между работното време на адвоката и нуждата на клиента от незабавно внимание. Интелигентните асистенти могат да осигурят денонощен „първоначален прием“ (intake) на уебсайта на кантората, събирайки фактите по казуса, преди те да стигнат до юрист. Езиковите модели могат да бъдат използвани за протоколиране на разговори, управление на e-mail съобщения и др.
4. Анализ на документи
Още и преди избухването на езиковите модели, с помощта на машинно обучение и статистически модели се анализираха документи и откриваха доказателства в особено големи масиви от данни[5]. Чрез процеса “predictive analysis” системата може да се обучи и да дава информация, кои документи са релевантни за един правен спор или съдържат търсената информация. Днес тази технология е общодостъпна или вградена в софтуерни услуги за съхранение на документи[6].
5. Маркетинг и бизнес развитие
Генеративните модели се превръщат в мощен двигател за поддържане на дигиталното присъствие на адвокатите. Те могат да създават структури и чернови за блог статии, бюлетини и публикации в социалните мрежи, пестейки време за проучване и редакция. Освен това, приложения с ИИ отдавна се използват за таргетиране на аудитории при реклама (напр. Facebook), но вече се вграждат и в CRM системи, за да идентифицират закономерности в търсенето и да предлагат нови услуги, които биха били полезни за клиентите (cross-selling)[7].
Въпреки този впечатляващ обхват, важно е да осъзнаем, че се намираме едва в зората на тази трансформация. Всички изброени приложения са все още в своята „експериментална фаза“ и истинските иновации – онези специфични решения, които ще дефинират уникалния облик на адвокатурата на бъдещето – тепърва предстои да бъдат измислени и адаптирани от самите нас в процеса на работа.
II. Ще ни вземе ли ИИ работата?
При всички „чудеса“, които системите с ИИ са способни да правят, резонно се поставя въпросът – а дали няма да отнемат работата на адвокатите?
Нека да видим естеството на работата, която в момента се „отнема“ от системите с ИИ – четене на документи, компилиране на повтарящ се текст, редакция и прилагане на граматически и стилови правила, търсене в бази данни, събиране на информация, смятане на числа, проследяване на събития и поведение и т.н. Да, това е работа, която обикновено заема значително място в адвокатския делник, но това не е съществото на мисията ни. Напротив – тя ни отклонява от нея.
Адвокатът е нужен на клиента си и на правосъдието най-вече с умението си да решава правен казус – да събере и оцени факти, да ги подведе под приложима норма и да формулира някакво решение[8]. Въз основа на такива умозаключения, в комбинация с опит, познания за контекста и интересите на клиента, знания по предмета на регулираната материя, обща култура и множество специфични човешки качества, адвокатът произвежда полезния резултат. А именно – адекватни, сигурни, конфиденциални, етични, понякога продължителни и устойчиви във времето услуги като консултации, процесуално представителство, договори, преговори и др. За сега наличната технология с ИИ не се справя с тези задачи и не е сигурно дали някога ще може да го прави по достатъчно надежден начин.
Следователно, обективно една голяма част от часовете, които адвокатите влагат в момента ще бъдат „изядени“ от ИИ, но няма нищо тъжно в това, защото на практика ще си освободим време и енергия да се занимаваме с по-съществената част от нашата работа. Така, според проучване на Университета „Харвард“, проведено сред представители на американски кантори, очакванията са, че настоящото съотношение на адвокатската работа между събирането на информация и юридически анализ ще се обърне от 80/20% на 20/80%[9]. Пак там, колегите от САЩ заявяват, че увеличението в производителността в следствие на въвеждане на системи с ИИ, няма да намали часовете отчетена работа, а ще увеличи значително тяхното качество, а от там и търсенето на услугите. Крайният резултат се очаква да бъде повече приходи за адвокатите.
Всъщност, с навлизането на системи с ИИ в адвокатската работа ще наблюдаваме явления, които не са без аналог. Така, до въвеждането на компютъра голяма част от работата на адвоката се е състояла в писането на машина или на ръка. Исковите молби са били много по-кратки от сега, съдебните решения – също. Отнел ли е компютърът работата на адвокатите? – Не, станало е по-лесно да се води дело, да се пише договор, работата е станала повече. Същото важи и за въвеждането на правноинформационните системи, които направиха съдебната практика и законите много по-достъпни, с което повишиха неимоверно качеството на правосъдието. Така и отдалечения достъп до справки и електронното деловодство, които отнеха на процесуалистите висенето по опашки в съда и им дадоха възможност повече да мислят какво да пишат в изявленията си, а не как да ги връчат.
Това есе обаче не е апология на системите с ИИ в правото, нито каталог на ползите от тяхната употреба. То е предупреждение, че, наред с всички ползи, има много сериозни рискове и е време да поговорим за тях.
Рисковете
По въпроса за рисковете от използване на системи с ИИ в адвокатската практика е изписано доста. И това е нормално, адвокатурата не е някакъв бизнес, а ключова дейност от системата на правосъдието, опора на демокрацията, законността и правовата държава. Всякакви резки промени, следва да се приемат със скептицизъм и съмнение. Това е здравословен консерватизъм, дължим към всяка система с ключово значение за съществуването на критични функции в държавата, каквато е правосъдието. За това е разбираемо, че първата реакция на европейската адвокатура бе да предупреди за рисковете.
I. Насоки на CCBE
През март 2022-ра година Съвета на адвокатурите и правните общества в Европа (CCBE) в партньорство с Европейската фондация на адвокатите (ELF) публикуват „Насоки за използването на инструменти, базирани на ИИ, от адвокати и адвокатски кантори в ЕС“ („Насоките“)[10]. С този документ авторите си поставят образователна цел – да предоставят на адвокатите, особено на малките кантори, практическо разбиране за възможностите и рисковете на новите технологии, за да не изостават в дигиталната ера. Насоките са приети преди експлозията на ChatGPT, но към този момент системите с ИИ вече са навлизат в практиката и анализът е все още относително актуален. Рисковете за адвокатурата са разделени в две групи:
1. Технологични рискове
Това са рисковете, свързани с естеството на системите с ИИ, разбирани като по-широко понятие, включващо езикови модели, но и други приложения на машинното обучение. Понеже не съм инженер, ще се спра само накратко да изброя най-съществените:
Зависимост от доставчика (Vendor lock-in): Това е рискът от трудно преместване на данните от един облачен доставчик към друг поради липса на стандартизация. Да, качените документи и други файлове, могат да бъдат свалени и преместени. Но става дума за това, че ценната информация, която се трупа от взаимодействието на адвоката със системата – история на действията, връзки между документи, логове, метаданни и въобще цялата информация, въз основа на която системата индивидуализира потребителя и персонализира резултатите си, се губи. Тази техническа особеност може да ограничи свободата на адвоката и да го направи зависим към доставчика.
Липса на разбираемост (Explainability): Липсата на яснота как точно алгоритъмът стига до даден резултат прави невъзможно за адвоката да провери логиката зад него. Инструмент за предсказващо правосъдие дава прогноза за изхода на делото, но не може да обясни кои точно фактори или прецеденти са натежали за този извод. Трябва да кажем, че от 2022-ра до сега е направено много за т.нар. „разбираемост“ („explainability”) на системите с ИИ и популярните чатботове дават някаква информация за стъпките, които предприемат, за да стигнат до отговорите си. Но трябва да е ясно, че това не е пълната информация за пътя на информацията.
Рискове за неприкосновеността на данните: По принцип системите с ИИ могат да се обучават с данните, които техните потребители, включително адвокатите, въвеждат, за да ги ползват. Това означава, че теоретично могат да събират информация за клиентите на адвоката и при агрегиране на достатъчно много данни да ги разпознават, което може да е много опасно. По принцип съществуват методи, с които да се извлича информацията, с която е трениран модела чрез специални запитвания (промтпове)[11]. Според Насоките, този риск съществува дори при захранване на моделите с анонимизирани документи, при които данните на страните са заличени. С помощта на останалата част от съдържанието, в комбинация с информацията в интернет, данните могат да се деанонимизират и лицето да се разпознае[12].
Риск от неразбирането на фундаменталните ограничения на генеративния ИИ: Този риск не е включен в Насоките на CCBE, но е бързо осъзнат в годините след популяризирането на ChatGPT. Просто езиковите модели не са достатъчно надеждни, за да бъдат ползвани за всякаква правна работа. Техните ограничения и грешки (напр. „халюцинации“, фалшива увереност и т.н.), трябва да се познават и резултатите от тяхната работа да се проверяват[13].
И ако тези рискове могат да бъдат смекчени с технически средства (и вероятно донякъде са), то следващата група опасности зависят от поведението на адвокатите.
2. Рискове за професионалните задължения
Това са рисковете, които пряко застрашават етичните стандарти на адвоката:
Рискове за професионалната компетентност при внедряване на нова технология: Задължението за компетентност изисква адвокатът да не поема работа, за която не е квалифициран[14]. Това положение не се променя от факта, че адвокатът разчита на технологичен инструмент, който да му дава отговорите, които обаче адвокатът може да не разбира напълно. Ако адвокатът е некомпетентен в определена материя, то рискът да направи грешка при работа е по-голям с използване на ИИ, отколкото без, защото езиковите модели създават илюзия за компетентност.
Риск от свръхнатоварване и невъзможност за обслужване: Ефективността на ИИ инструментите може да създаде илюзия за безграничен капацитет, изкушавайки адвокатите да поемат много повече клиенти, отколкото могат реално да обслужат качествено. Адвокатската професия изисква лично разбиране на нуждите на клиента, което не може да бъде напълно автоматизирано. Всъщност, роботизирането на адвокатската услуга и клиентското обслужване е неприсъщо на хуманната същност на адвокатурата.
Рискове за професионалната тайна: Адвокатът има задължение за опазване тайните на своите клиенти. Той трябва да съобразява риска от това те да попаднат в трети лица (напр. държавни органи), когато използва приложения с ИИ. Адвокатът трябва да оценява не само техническите параметри на софтуера, а стратегическия риск за клиента: кой може да има интерес от данните и какви са законовите възможности на властите да изискат достъп директно от доставчика?
Тези рискове са особено тежки за по-малките кантори и самостоятелни адвокати, които, от една страна, са притиснати от необходимостта да използват системи с ИИ, за да не изостанат. Но от друга страна – не могат да инвестират в усъвършенствани приложения, професионално внедряване и обучение.
II. Практически последици
Така изброени, тези рискове звучат леко абстрактно. Бих искал да „приближа“ наратива до ежедневната дейност на адвоката. Какво може да стане при реализирането на тези рискове, защо е опасно за нас?
1. Очевидното – могат да станат грешки.
Преди дни четох изследване на Центъра за бъдещето на правната професия (Австралия), който е направил обзор на известните грешки в 10 юрисдикции при съдебно производство, допуснати в следствие на използване на системи с ИИ[15]. Грешките са от всякакво естество – неистински факти, несъществуващи актове и съдебна практика („халюцинации“), драстично неточни интерпретации на правото и прочее. Основната причина – използване на ИИ при липса на верификация, т.е. проверка дали резултатите от анализа са верни.
Това може да значи три неща: или адвокатът не е компетентен и не може да прецени дали отговорът, който приложението му дава е юридически издържан, или решава да си спести времето от четене и верификация[16], или и двете. Всеки от вариантите драстично противоречи на адвокатската етика и подкопава доверието в адвокатурата. А доверието е съществена компонента на стойността на адвокатския труд.
2. Обезстойностяване на адвокатския труд
Всъщност, изброените по-рано ползи от системите с ИИ ще доведат до подобряване на ефективността и стойността на адвокатския труд, само ако се използват по предназначението си. А именно – да спестят време на адвоката, което той да вложи в същински полезни за клиента и правосъдието дейности. Ако, вместо това, инструментите с ИИ се използват, за да се придаде фалшива компетентност или да се мързелува, то последиците за адвокатурата могат да са много тежки.
Всъщност, в цитираното в предната точка изследване, голяма част от гафовете в съдебни производства, са резултат от желанието на граждани да се представляват лично без адвокат, само с помощта на изкуствен интелект. Можем само да спекулираме колко и какви са случаите на извънпроцесуална самопомощ и кога ще изникнат техните негативни последици. Трябва да е ясно какво означава това – просто някои хора не виждат къде е добавената стойност на адвоката[17]. Това чувство се подсилва, ако си мислят, че той е просто един скъп посредник между тях и да речем ChatGPT.
Тук, разбира се, съществува аргумент, че пазарът ще отсее тези адвокати и кантори, които нямат добавена стойност, а единствено препредават информация от клиента на умното приложение и обратно. Има логика, но не е сигурно. Първо, дори и най-големите могат да сбъркат или просто да им личи, че са използвали ИИ, без да се потрудят[18]. И второ – достатъчно е няколко крупни гафа да се разчуят, за да пострада доверието във всички. Ще бъдат ли склонни тогава клиентите да плащат за адвокатски услуги или те ще се обезценят?
3. Последици за правосъдието и правния ред
Ако ролята на правния професионалист се маргинализира и той се отчужди дори частично от правния оборот, ще настъпят опасни последици и за правосъдието и правния ред като цяло. Наред с безспорната функция на адвоката да съдейства на гражданите и бизнеса да упражняват своите права, той има и не по-малко важната функция и да „филтрира“ техните желания, според закона, морала, практиката и предвидимото човешко поведение. Отсяването се случва и по силата на чисто човешките възможности да се предоставят правни услуги, които са ограничени във времето. Генеративните модели на ИИ, от своя страна, са прословуто склонни да угодничат на потребителите си, включително като им дават грешни и необосновани резултати[19]. И могат да произвеждат милиони „правни продукти“ ежедневно, без да се уморят.
Това на практика значи, че ако хората започнат да използват чатботове или други приложения, за да пишат искови молби и жалби, съдът ще бъде затрупан. А той на практика няма възможност да използва системи с ИИ, за да правоприлага, тъй като те са в категорията на високия риск и трябва да минат регулаторно одобрение[20]. Ефектите върху извънсъдебния оборот също могат да не са в интерес на правомерното протичане на правоотношенията. Кой знае колко договори вече циркулират, които са пълни с безсмислици, но страните по тях нямат представа. Можем да предположим, че са огромно количество, съдейки по факта, че OpenAI промениха наскоро политиките си по отношение на предоставянето на правни услуги, с цел да избегнат отговорност[21].
Какво да се прави?
След това надявам се не твърде обилно изложение, остават два въпроса, насочени към българската адвокатура – трябва ли да се саморегулираме по някакъв начин и как да стане това?
I. Трябва ли да се саморегулираме?
Считам, че за целта трябва да си отговорим на два подвъпроса: 1) има ли важни ценности за адвокатурата и обществото, които трябва да бъдат защитени при използването на системи с ИИ от адвокатите? и 2) Уместно ли е това да става чрез (само)регулация?
1. Защитими интереси
От анализа ми до момента, стъпващ върху съществуващите насоки и практики, считам, че се очертаха няколко въпроса, които са критични за доброто на адвокатурата, нейните клиенти и правосъдието като цяло. Сред тях следва да са:
Запазване на доверието в адвокатската професия
Осигуряване на възможността за изпълнение на адвокатските задължения
Запазване на конкурентността и релевантността на адвокатския труд
Всъщност, всяка от тези ценности е поне частично вече уредена. Това са вече споменатите задължения да не се поема работа, без необходимата компетентност, адвокатските задължения са изброени в ЗАдв и ЕКА, а чл.27 и 28 от ЗАдв ни възлага и задължение да се квалифицираме, включително с помощта на нашите органи. Защо тогава просто не прилагаме старите правила в новия контекст? Има ли смисъл да се саморегулираме допълнително?
2. Обосновка на регулацията
Твърдя, че съществуват причини, които налагат саморегулацията на адвокатската професия по отношение на използването на ИИ, вместо алтернативи като образование, например.
2.1. Някои нови правила
Изброените по-рано интереси не могат да бъдат защитени само с настоящите професионални правила. За да се поддържа доверието в адвокатската професия, то трябва да е задължително за използването на системи с ИИ да се уведомяват клиентите. Те трябва да имат възможност да узнаят как това се отразява на ценообразуването, какво допълнително се прави със спестеното от технологията време, за да е същата цената, както и какви мерки се вземат, за да се гарантира конфиденциалността на информацията. В противен случай доверието ще спада.
Могат да се въведат и други правила, като например такива, предвиждащи специални мерки за сигурност и проследимост и други предпазни мерки при боравене със системи с ИИ в адвокатската практика[22]. Темата е отворена и е постоянно в развитие.
2.2. Интерпретация на съществуващите правила в контекста на ИИ
Да, повечето въпроси са вече уредени общо, но това не значи, че тяхното конкретно тълкуване в контекста на ИИ е ясно. Например, използването на информационно приложение компенсира ли изначалната липса на компетентност на адвоката в съответната област? Качването на документи на клиенти в генеративни модели с общо предназначение нарушение ли е на адвокатската тайна? А транскрибирането на онлайн среща от специален бот? Трябва ли адвокатът да поддържа своята компетентност и по технологични въпроси, като например използване на приложения с ИИ? А трябва ли застраховката за професионална отговорност на адвоката да включва и отговорност за вреди, свързани с използване на умен асистент?
За всичко това трябва трябват задължителни правила или поне интерпретации, направени официално от органите на адвокатурата. Насоките на UIA са много добър документ, но качването им на сайта на ВАдвС не обвързва нито дисциплинарните органи на колегиите, още по-малко съда с тези правила.
2.3. Необходимостта от ясен знак, че адвокатурата застава единно в защита на доверието в професията
Една такава регулация трябва да даде и много ясен сигнал на всички адвокати и на обществото като цяло, че адвокатурата колективно гарантира доверието в професията. Че има някакви институционални гаранции за компетентна и надеждна адвокатска услуга, за ефективно изпълнение на адвокатските задължения и адекватно, добросъвестно и по предназначение използване на системи с ИИ.
II. Как да стане?
Този въпрос е отворен. Очевидно е, че основанията за регулация, интересите и ценностите, които трябва да се защитят и конкретните правила, които да се приемат подлежи на дебат. Той може да продължи дълго време и е добре да започне съвсем скоро, тъй като технологията навлиза експоненциално в професията.
От там нататък форми за саморегулиране има най-различни. Но уместно изглежда новите правила да бъдат въведени чрез изменение на ЕКА. А съществуващите правила да бъдат тълкувани и конкретизирани чрез официално приети от органите на адвокатурата Насоки, практически наръчници и други подобни.
Разбира се, образованието и квалификацията на колегите за боравене с инструменти, базирани на ИИ, е не просто възможно решение, а задължително. То не може обаче да замести гаранционния ефект на правилата и отговорността на адвоката.
В заключение, изкуственият интелект е вече тук сред нас, част от нашата практика, независимо дали го признаваме или не. Не можем да отречем огромните ползи, които той потенциално ще донесе на адвокатската професия. Едно ежедневие, прекарано повече в мислене за правото, за справедливото, за философията, за житейската мъдрост е било малко или много мечта на всеки днешен практик. Зад тази оптимистична картинка обаче се крият рискове, които имат заряда да засегнат тежко професията на адвоката. От нашата осъзнатост, организираност и проактивност зависи дали ще се развием и продължим напред като гилдия или ще позволим престижа и доверието в нас да упада.
[1] Вж. например агентите на A&O Shearman в сътрудничество с Harvey - https://www.aoshearman.com/en/news/ao-shearman-and-harvey-to-roll-out-agentic-ai-agents-targeting-complex-legal-workflows
[3] Ето ги в превод на български език: https://www.vas.bg/p/n/a/nasoki-uia-13638.pdf
[4] Т.нар. “low hanging fruit”
[5] Например проектът COIN на JP Morgan от 2017-та г. https://www.bloomberg.com/news/articles/2017-02-28/jpmorgan-marshals-an-army-of-developers-to-automate-high-finance
[6] Като OneDrive, Sharepoint, GoogleDrive, Dropbox и др.
[7] Например софтуерната услуга Intapp https://www.intapp.com/dealcloud/
[8] Вж. подробно как става това в Таков, Кр. Как се решава частноправен казус. С.: Сиби, 2007
[9] https://clp.law.harvard.edu/knowledge-hub/insights/the-impact-of-artificial-intelligence-on-law-law-firms-business-models/
[10]https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Reports_studies/EN_ITL_20220331_Guide-AI4L.pdf
[11] Вж. напр. тази статия: https://arxiv.org/abs/2310.06816
[12] Вж. стр. 47 и сл. от Насоките
[13] Виж Насоките на European Bars Federation от 2024-та година https://www.fbe.org/wp-content/uploads/2024/10/European-lawyers-in-the-era-of-ChatGPT-Guidelines-2.0-on-how-lawyers-should-take-advantage-of-the-opportunities-offered-by-large-language-models-and-generative-AI.pdf
[14] Чл.43, ал.1 ЗАДВ и чл.11, ал.4 и 5 от Етичния кодекс на Адвоката – ЕКА
[15] Вж. GenAI, Fake Law & Fallout: A review of the misuse of generative artificial intelligence in legal proceedingshttps://techxplore.com/news/2025-11-genai-fake-law-fallout-reveals.html
[16] Някои спорят, че необходимостта от верификация изяжда ползата от ИИ - https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5621550
[17] Като този случай на обжалване на акт на НОИ, при който жалбоподателят имплицитно си призовава хората да не ползват професионална помощ - https://nova.bg/news/view/2025/06/29/502505/it-специалист-осъди-нои-с-помощта-на-изкуствен-интелект/
[18] Като например този случай с Делойт, които бяха принудени да връщат пари на албанското правителство, заради грешки в доклад, изготвен с ИИ - https://www.theguardian.com/australia-news/2025/oct/06/deloitte-to-pay-money-back-to-albanese-government-after-using-ai-in-440000-report
[19] Т.нар. ефект sycophancy - https://arxiv.org/abs/2502.08177
[20] Вж. чл.6, пар.2 вр. Анекс III от Регламент (ЕС) 2024/1689 (Акта за изкуствения интелект/AI Act)
[21] Промениха само политиката си, но не и възможността всякакви правни услуги да се генерират през ChatGPT. Целта е да си дадат възможност да претендират липса на вина при увреждане - https://news.bloomberglaw.com/legal-ops-and-tech/chatgpt-terms-act-as-liability-shield-for-doling-out-legal-advice
[22] Вж. напр. чл.12 от цитираните в началото Насоки на UIA

Коментари