childish-page-banner

AI& ML Стратегия

Една стабилна и цялостна стратегия с приложим план за изпълнение увеличава шансовете ви за успех при разработването на приложения с изкуствен интелект, които осигуряват положителна възвръщаемост на инвестициите. Позволете на нашите опитни консултанти да ви помогнат да поставите правилните основи за пълноценно развитие с AI. Използвайки нашия експертен опит в бранша и техническия опит, можем да ви помогнем да идентифицирате подходящите за вашия бизнес примери за използване на AI, как да ги приоритизирате и от каква инфраструктура, ресурси и хора се нуждаете за тяхното разработване от POC, през MVP до production. Всичко това е част от последователна, приложима и измерима стратегическа план-програма.

Стъпка 1

Оценяване на състоянието на зрелостта на ....AI и готовността за използане на изкуствен интелект. Можем да оценим зрелостта на вашата организация в областта на AI и данните и да определим областите за подобрение. По този начин ще положим правилните основи за вашата трансформация, основана на AI.

Стъпка 2

Подготовка ... Като трансформираща технология, AI може да има положително въздействие върху бизнес процесите. Нашата структура ви помага да подходите към него по стратегически начин, което е от решаващо значение за дългосрочната устойчива възвръщаемост. Подготвката за това пътуване е начин да положим правилните основи за вашата трансформация, базирана на AI.

Стъпка 3

Изпълнение.... Качеството и скоростта на изпълнението са от значение. Според неотдавнашно проучване на Gartner само 22% от организациите заявяват положителна възвръщаемост на инвестициите от своите инициативи в областта на изкуствения интелект. Нещо повече, още по-малко компании успяват да достигнат до успешно внедряване на AI в цялото предприятие. Свържете се с нас и нека обсъдим как можем да ви помогнем да избегнете подводните камъни по време на това пътуване.

Стъпка 4

Поддържане ... Поддържане, адаптиране и развитие. Както вътрешните, така и външните фактори играят роля за ефективността на вашата компания. Това се отразява на данните, които използвате за своите модели. То също така оказва влияние върху вашите бизнес нужди и оперативни процеси. Същото се отнася и за модела, управляван от изкуствен интелект, който ще имате в експлоатация. Той се нуждае от постоянен мониторинг, инженеринг на функциите и настройка на параметрите на производителността, за да се поддържат неговата точност, времетраене и производителност на очакваните нива. Всичко това трябва да се случва с подходящото темпо и на възможно най-ниска цена за вас. За да бъде това постижимо, основите на вашата стратегия за изкуствен интелект са от решаващо значение.

AI Разработване

Имате идея, но не сте сигурни откъде да започнете нейното разработване? Или може би сте започнали, но не сте сигурни как да разширите обхвата ѝ? Ние можем да ви помогнем. Създадохме система, която може да ви помогне във всички фази на вашето развитие с AI - от идеята до POC, MVP и скалируемо производство. Нашият екип от Data Scientists, ML Engineers, Data Engineers и DevOps Engineers вече е работил заедно с експерти в областта на нашите клиенти. Можем да работим заедно, за да разработим първокласно приложение, базирано на AI, което е съобразено с вашите бизнес нужди.

Звучи ли ви познато за вашите предизвикателства с AI? Научете повече за нашите възможности и в какво сме добри.

Според Gartner четири от всеки пет проекта за AI и machine learning се провалят, докато половината от всички проекти стигат от прототип до производство. Защо това е така?

Как да характеризираме първокласното решение за AI? Надеждното и печелившо решение за AI трябва да бъде измеримо, предвидимо и с контролирани разходи по отношение на разработването на софтуер и гарантирането на производителността. Освен това ние се уверяваме, че резултатите от алгоритмите са добре интегрирани сигурно и надеждно в процесите на вашата организация, което гарантира правилната използваемост на генерираните познания от продуктите на AI.

В какво сме добри?

Модели за прогнозиране

Системи за препоръки

Обработка на естествения език

Computer vision

Сложни анализи на данни

Модели за класификация и клъстеризиране

Системи за оптимизация

Прогнозни модели

Прескриптивни модели

AI Operations

След като вече имате работещ прототип или решение с изкуствен интелект в експлоатация, трябва да го поддържате, развивате и скалирате. Ние можем да ви помогнем. Работим заедно с вас и ви помагаме да организирате и внедрите интегрирано съвременно решение с AI. Доверете ни се при експлоатацията и наблюдението на вашите данни и AI, като избягвате всякакви престои до най-висока степен на надеждност.

Лесно е да се подцени стъпката между POC решението, разработено от data scientists и напълно функциониращото, реализирано в производството AI решение. Това е мястото, където повечето компании изпитват затруднения. Бизнес стойността за вашата организация ще се получи, след като моделите се захранват с данни в реално време или почти в реално време, в зависимост от бизнес изискванията, а резултатите от моделите са напълно интегрирани в съществуващите процеси.

AI & ML Казуси

banner

Разработване на NLP за фармацевтична компания

Предизвикателство: Клиентът, мултинационална фармацевтична компания, искаше да преработи съществуваща система за управление на запитвания и да подобри нейната производителност и аналитични възможности чрез изкуствен интелект. Целта беше да се осигури последователно обслужване на клиентите на различни места. 

Индустрия: Здравеопазване  

Подход: Екипът ни използва семантичен анализ с предварителна обработка на NLTK, за да създаде различни функции за извличане и обозначаване на лекарствени продукти върху вече натрупани и класифицирани данни от запитвания. Предварително обработените данни бяха използвани за обучение на Keras с TF engine и бяха оценени в сравнение с вградените SVM алгоритми в SKLearn. Резултатите бяха с точност, близка до 80 % за класификация. Компонентите на ML бяха интегрирани в конвейера за автоматично задаване на задачи въз основа на продукта и екипа, разпознати в запитването в свободен текст.

От бизнес гледна точка цялостното решение ускорява процеса на управление на запитванията и допринася за цялостната удовлетвореност на клиентите и повишената оперативна ефективност. 

Технологичен набор: Python и Angular разработчици, Data Scientists, ML инженери, проектен мениджър.

Резултати: Успешно завършване на рефакторинг задачите и въвеждане на NLP модула. Постигнатите резултати са с близо 80% точност при класифицирането на запитванията.

banner

Инструмент за скрининг с AI за софтуер за подбор на персонал

Преглед: Клиентът беше стартираща компания, която решаваше проблема с управлението на многобройни процеси в отдела за набиране на персонал. Екипите по наемане на персонал разполагат с данни от различни източници, които трудно се обработват и анализират. Нашата задача беше да структурираме и разработим структура от данни и да създадем инструмент с изкуствен интелект за проверка на кандидатите.
 

Подход: Нашият екип от инженери по данни, учени по данни и ML инженери започна с проучвателна фаза, за да разбере изискванията на клиента и да определи най-добрия подход за проекта. Извършихме задълбочен анализ на пейзажа на данните за набиране на персонал и различните видове източници на данни, използвани в индустрията. След това разработихме архитектура на решението, която може да се справи със сложните структури от данни и моделите с изкуствен интелект, необходими за проекта. Избрахме AWS като основен доставчик за съхранение на данни и го комбинирахме с други ETL инструменти за работа с различни формати от множество източници.

След като структурата на данните и конвейерите бяха създадени, използвахме семантичен анализ с предварителна обработка NLTK, за да извлечем необходимата информация за всеки кандидат. Семантичният анализ ни позволи да идентифицираме уменията, опита и образованието на кандидата от неговата автобиография, мотивационно писмо и профили в социалните мрежи. След това разработихме ML модел, използвайки Keras, TensorFlow и SKLearn, за да сортираме кандидатите в предварително определени групи и фактори, като например ниво на опит, длъжност и местоположение. Резултатът беше представен в структурирана база данни с кандидати, която можеше лесно да се търси и филтрира от екипите по наемане на персонал.

Основни метрики: Инструментът за скрининг с изкуствен интелект осигури съществени ползи за процеса на подбор на персонала на нашия клиент. Кандидатите в системата бяха автоматично подбрани в кратък списък, а екипите по подбор на персонал трябваше само да прегледат резултатите от скрининга. 

В резултат на решението беше постигната целта да се оптимизира времето, необходимо на екипа по подбор на персонал за ръчно преглеждане на автобиографиите на кандидатите и то да се намали наполовина. Повишената производителност им позволи да се съсредоточат върху по-стратегически задачи, като например провеждане на интервюта и оценка на съвместимостта на кандидатите.

banner

Софтуер с computer vision анализ в производствено предприятие

Предизвикателство: Задачата беше да се разработи решение за управление на задачи в производствени предприятия, съчетано с извличане на данни от производствени машини чрез сензори и PLC.

Екип: Python разработчици, Angular разработчици, Data scientsts, Computer vision експерти, QA специалисти, DevOps, UX дизайнер и PM

Решение: Решението беше успешно разработено за фазата MVP и продължи да включва computer vision в комбинация със задачи, процедури и регистри за четене от PLC контролери. Понастоящем използва Python OpenCV и YOLO детектор за обекти от IP камера за извличане на движенията на работниците в определени индустриални зони. Първоначално се събират данни, за да се извърши контролирано обучение на по-късни етапи.

Статус: В момента софтуерът е интегриран в 3 производствени предприятия в България.

Основни метрики: Намаляване на разходите за поддръжка с повече от 20% в рамките на 1 година.

banner

Разпознаване на изображения и NLP за откриване на измами

Предизвикателство: Създаване на напълно функциониращо решение от нулата

Екип: Data Engineers, Data Scientists, ML инженери, DevOps

Решение: Проектът започна с фазата на проучване, за да се анализират съществуващите данни и да се тестват множество решения, които отговарят на нуждите както на клиента, така и на доставчиците на облачни услуги. AWS беше избран като основен доставчик на услуги за съхранение на данни в комбинация с ElasticSearch. Екипът ни изгради пълния ETL процес за започване на операциите. След като структурата на данните и потоците бяха определени, въведохме два екипа от data scientists - единият специализиран в семантичен анализ (NLP), а другият с опит в разпознаването на изображения. За ML частта се погрижиха нашите инженери. Резултатът беше табло с визуализации на данни, направени в Kibana, за да се представят резултатите.

Статус: Успешно завършване на етапа на data engineering с продължаващи етапи на data science.

Резултати: Проектът значително подобри способността на клиента да открива нарушения на сигурността, което доведе до намаляване на риска.

banner

Анализ и прогнозиране на трафика въз основа на AI

Предизвикателство: Искането на клиента включваше анализ на пътищата и трафика. Задачата включваше изграждане на система за преброяване на превозни средства въз основа на типа и класификацията им, както и разграничаване на различните видове превозни средства и извършване на общо преброяване.

Подход: Започнахме с разработване на персонализиран софтуер за видеонаблюдение, който даваше възможност за дистанционно наблюдение на пътната обстановка и събиране на данни. Използвайки техники за разпознаване на изображения и анализ на данни, разработихме POC модел, анализиращ данните за трафика, който впоследствие беше разширен до напълно функциониращ инструмент за пътна и безопасност като анализ на трафика.

Чрез усъвършенстван deep learning екипът ни създаде решение, което беше в състояние да открива и предупреждава за потенциални произшествия, да прогнозира задръствания или да планира ефективни пътища и места за паркиране. В момента решението се развива в автономно наблюдение на камери и системи за наблюдение на трафика и генериране на предупреждения в реално време при настъпване на определени събития от интерес.

Технологии: Python, React.JS, Yolo, SSD и OpenCV

Резултати: Решението позволява лесно наблюдение на ключови кръстовища, рискови места и магистрали с цел намаляване и предотвратяване на произшествия.

Решението осигурява дистанционно наблюдение на движението на моторните превозни средства по улиците и пресичанията на магистралите, което спомага за лесното наблюдение на проверките на място.

banner

Сертифициране на AI модел за сърдечно-съдова медицина

Общ преглед: Нашият клиент е европейски стартъп в областта на медицинските технологии, фокусиран върху откриването на сърдечносъдови аномалии. Целта на стартъпа е да отправи предизвикателство към пазара на базирано на ЕКГ сигнал откриване на сърдечни патологии, като например, но не само, предсърдно мъждене, преждевременни удари, субвентрикуларна тахикардия и т.н., получени от достъпни носими устройства като Polar H10. Компанията се нуждаеше от разработване на модел, базиран на ML и подготовка за сертифициране на медицинско изделие клас 2A, за да се гарантира, че тяхната система е безопасна и ефективна за използване от пациентите в домашни условия. 

Екип: Екипът ни от експерти включваше Data Engineer, Data Scientists, ML Engineers и Project Manager.

Подход
Фаза на проучване

Нашите Data Scientists си сътрудничиха с клиента, за да разберат съществуващата му система за обработка на ЕКГ сигнали, както и алгоритмите, базирани на изчисления. Създадохме инструмент за автоматизирано тестване, който оцени производителността на настоящото решение спрямо редица вътрешни и външни набори от медицински данни. Въз основа на този анализ предоставихме препоръки за подобряване на обхвата на откриваемите медицински състояния и определихме областите за подобрение. 

Консултирахме клиента относно процеса на сертифициране и изготвихме план за действие за работата и документацията, свързани с ML, необходими за сертифицирането на клас 2A. Също така предоставихме препоръки за подобрения и съдействие за изпълнение, което помогна на клиента да подобри своята система за обработка на ЕКГ сигнали и алгоритми. Нашият екип завърши анализа и препоръките за по-малко от 8 седмици, като предостави приложими съвети, които помогнаха на клиента да намали времето за обработка на заявлението. 

Фаза на разработване на модел за обработка на сигнали, базиран на ML

Клиентът предостави необработените данни за ЕКГ сигнала, включително маркирани данни с анотации на R-пикове, патологии, както и сегменти на "мек" и "твърд" шум. Тези означени данни бяха използвани като входни данни за моделите и се считаха за набор за обучение. Качеството и точността на прогнозите (откриването) на патологии зависят в голяма степен от чистотата на ЕКГ сигнала. Ето защо е важно да се разполага с надеждни, добре работещи модели по отношение на точността и прецизността, които могат да разграничават чистите и зашумените части на ЕКГ сигналите. Нашите Data Scientists разработиха ML-базирани модели за откриване на "мек" и "твърд" шум. След като успешно преминаха строгите критерии за приемане на производителността на моделите на клиента, нашите ML инженери създадоха продукционните pipelines за обучение и инференция и ги интегрираха в платформата и бизнес процесите на клиента. Нашето сътрудничество продължава с разработването на допълнителни алгоритми за откриване на патология, базирани на ML.

Резултати: Благодарение на активното ни сътрудничество с екипа на клиента успяхме да завършим работата по подготовката на модела за сертифициране само за 6 месеца, като помогнахме на клиента да постигне целта си да получи сертификат клас 2A за своята система за медицински изделия, задвижвана от изкуствен интелект. Това сертифициране позволява на клиента да предлага продукта си на по-широк кръг клиенти, като му дава възможност да осигурява ранно откриване и превенция на медицински състояния, свързани със сърцето.

banner

Видео платформа и чатбот за образователен исторически музей

Общ преглед: Клиентът се нуждаеше от нашата експертиза, за да разработи интерактивна онлайн платформа за историческо образование, посветена на историите за оцеляване на затворници в лагерите по време на комунистическата епоха в България. Общата идея беше да се даде възможност на потребителите да проведат виртуален видеоразговор с оцелелите, като задават въпроси и получават най-добрият отговор от предварително записан набор от отговори на най-популярните въпроси. Те са почерпили вдъхновение от подобен проект за истории от концентрационните лагери в нацистка Германия, но не са имали техническо ноу-хау как да го постигнат. Подобна платформа може да се види тук. Работихме в сътрудничество с множество екипи, ангажирани със заснемането на интервютата, обработката на видеото и графичния дизайн.

Решение:

Етап 1 - планиране

Започнахме със задълбочено планиране на въпросите за интервютата и процеса на записване, тъй като екипът разполагаше само с няколко дни, които да прекара с всеки човек и нямаше място за грешки. Всяко лице трябваше да бъде интервюирано по предварително подготвен сценарий и да му бъде зададен много конкретен списък от над 500 въпроса, като например: "Как се казвате?", "Кой е любимият ви цвят?", "Какво си спомняте за Втората световна война?" и други.

Етап 2 - Подготовка на данните

Екипът за последваща обработка на видеоклиповете се зае с нелеката задача да изреже и редактира необработените видеоклипове в набор от няколко хиляди видеоотговора. Нашата задача беше да категоризираме всички видеоданни чрез подход на претеглени ключови думи и да приложим алгоритъм, който да съпостави ключовите думи във въпроса на потребителя с категоризираните отговори в базата данни.
 

Етап 3: Разработване на алгоритъм

Като взехме предвид граматическите особености на българския и английския език, направихме няколко итерации на конфигурацията, за да коригираме тежестите на ключовите думи и да подобрим работата на алгоритъма. Всички тестове бяха наблюдавани и активно използвани за постоянно подобряване на алгоритъма. 

След като платформата регистрира достатъчно данни от реални потребители, планът беше да се въведе езиков модел с изкуствен интелект, за да се даде възможност за още по-реалистични и проницателни разговори с оцелелите. Все пак щяхме да използваме алгоритъма за съвпадение на ключови думи, за да сравняваме и измерваме ефективността на AI модела, за което щяха да са необходими значително повече данни, отколкото първоначално имахме в началото на проекта. 

Етап 4 - Разработване на уебсайт

Когато алгоритъмът беше готов, продължихме с интегрирането му в останалата част на платформата, където потребителите могат да влизат, да проследяват предишни чат сесии и да откриват интересна информация и факти за конкретния исторически период за по-нататъшна оценка.

 

Бъдещи планове: След като платформата регистрира достатъчно данни от реални потребители, ще бъде въведен усъвършенстван езиков модел с изкуствен интелект, който ще позволи още по-реалистични и проницателни разговори с оцелелите. Алгоритъмът за съпоставяне на претеглени ключови думи е добър критерий за сравнение и измерване на ефективността на модела на AI, който ще се нуждае от значително повече данни, отколкото първоначално имахме в началото на проекта.

banner

CRM модел за ефективна оптимизация на клиентските предложения в банковия сектор

Общ преглед: Банка за обслужване на физически лица е изправена пред предизвикателството да оптимизира офертите за привличане на нови клиенти и повишаване на стойността на съществуващите клиенти. Отделите за маркетинг и риск работеха с различни подходи и имаше нужда от унифицирана оценка, която да осигури единна мярка за очакваната рентабилност на клиент. За да се справим с това предизвикателство, нашият Data Science екип беше ангажиран да разработи решение с изкуствен интелект, което да дава надеждна обективна оценка за очакваната рентабилност на клиент, базирана на маркетингови и рискови фактори.

Решение: Екипът ни разработи CRM (Customer Relationship Management) модел, който комбинира маркетингови и рискови фактори за оценка на очакваната рентабилност на всеки банков продукт въз основа на разработения от нас методологичен продукт. Моделът използва моделите Propensity-to-Buy (PtB) за прогнозиране на вероятността клиентът да закупи конкретен продукт, както и моделите Probability of Default (PD) за оценка на риска клиентът да не изпълни задълженията си по даден кредит. Резултатът от модела е единна мярка за очакваната рентабилност на клиент, която може да се използва за класиране на следващата най-добра оферта (NBO) за всеки клиент. 

За да разработим CRM модела, първо събрахме и интегрирахме данни от различни източници, включително данни за транзакции, демографски данни и данни за взаимодействието с клиентите. След това приложихме различни алгоритми за машинно обучение, като логистична регресия и random forests, за да обучим и тестваме моделите PtB и PD. Също така проведохме инженеринг и подбор на характеристики, за да идентифицираме най-подходящите променливи за прогнозиране на рентабилността.

Резултати: Моделът на CRM беше тестван в условията на състезание между шампиони и съперници, при което контролната група получи NBO, основани на бизнес правила, а тестовата група получи NBO, генерирани от модела на CRM. Коефициентът на отговор (up-sell) в тестовата група е пет пъти по-висок, отколкото в контролната група, което показва, че CRM моделът е по-ефективен при идентифицирането на изгодни за клиентите оферти.

CRM моделът е внедрен в производството и сега се използва за оптимизиране на офертите за клиенти в реално време въз основа на най-актуалната информация за клиентите. Това доведе до повишаване на рентабилността на банката и до по-добро клиентско преживяване, тъй като на клиентите се предлагат продукти, които са по-подходящи за техните нужди и предпочитания.

banner

Разработване на цялостен PD модел за точна оценка на кредитния риск в банковия сектор

Общ преглед: Банковият сектор е изправен пред сериозно предизвикателство да оценява точно кредитоспособността на кредитополучателите, за да взема информирани решения за отпускане на кредити. Традиционните модели за оценка на кредитоспособността, които често разчитат на ограничена информация, като например кредитна история, може да не отразяват точно риска от непогасяване на задълженията. За да се справим с това предизвикателство, нашият екип получи задачата да разработи по-точен и изчерпателен модел за прогнозиране на вероятността от неизпълнение.

Решение: Екипът ни разработи модел за вероятност от непогасяване (PD), който използва широк набор от данни за клиентите, включително поведенчески и демографски данни, за да прогнозира вероятността от непогасяване. Моделът се основава на алгоритми за машинно обучение, които са обучени на исторически данни, за да идентифицират модели и корелации между различни променливи и риска от неизпълнение. 

Първоначално събрахме и обработихме голям набор от данни от молби за кредит и свързаните с тях данни за клиентите и използвахме различни алгоритми за машинно обучение, като логистична регресия и "дървета на решенията", за да обучим и тестваме модела. Също така извършихме подбор на характеристики и инженеринг, за да идентифицираме най-подходящите променливи за прогнозиране на риска от неизпълнение.

Резултатът от модела е единна оценка, която отразява вероятността от неизпълнение, която може да се използва за информиране на решенията за отпускане на кредити и за определяне на подходящи лихвени проценти.

Резултати: Моделът PD е тестван върху набор от данни от молби за кредит и е сравнен с традиционните модели за кредитен скоринг. Резултатите показаха, че нашият PD модел превъзхожда традиционните модели по отношение на точността на прогнозиране и способността за идентифициране на високорискови кредитополучатели. Впоследствие моделът беше внедрен в производствена среда и беше използван за вземане на решения за отпускане на кредити и за определяне на лихвените проценти за кредитни продукти.

banner

Federated Learning за персонализирани модели за прогнозиране на здравни услуги при лечение на онкологични заболявания

Предизвикателство: Между 2009 и 2013 г. нашият ръководител на отдел " Data Science" ръководеше разработката и внедряването на проекта euroCat - новаторско решение за персонализирана методика на лечение в радиационната онкология. Проектът включваше пет болници в три държави от ЕС, които използваха данните на своите пациенти с онкологични заболявания с цел оптимизиране на персонализираното лечение. Целта беше да се разработи модел за Machine Learning (машинно обучение), който е способен да се обучава от различни източници на данни, без да се централизират данните на пациентите, по начин, който запазва неприкосновеността на личните данни на пациентите. Можете да прочетете повече за euroCat в академичния документ.

Решение: Това е техника, която позволява на множество страни да си сътрудничат по machine learning модел, без да споделят чувствителни данни и без да е необходимо данните да бъдат централизирани, като се обменят само параметри на модела по време на процеса на обучение.
При този подход всяка болница обучава част от модела на всяка итерация, като използва локалните си данни и след това споделя само някои параметри с централен сървър.След това централният сървър обобщава параметрите от всички държави, за да актуализира глобалния модел, без да има достъп до местните данни. Обучението продължава чрез цикли на итерации, докато не бъдат изпълнени критериите за конвергенция на модела. Ролята на "централен сървър" може да се изпълнява от всяка от болниците в мрежата. Екипът по изкуствен интелект на Георги Налбантов използва Federated Learning (Федеративно обучение), за да научи модели на Support Vector Machine (SVM), използвайки метода на множителите с променлива посока (ADMM), от различни бази данни, за да предскаже резултатите от лечението: които могат да бъдат или пряк ефект от лечението, или страничен ефект от лечението, например задух след лъчетерапия (на белия дроб).

Ефективността на SVM моделите е оценена чрез площта под кривата (AUC) при петкратна процедура за кръстосано валидиране (обучение в четири обекта и валидиране в петия).

Представянето на алгоритъма за обединено (федеративно) обучение е сравнено с централизираното обучение, при което наборите от данни на всички клиники са обединени в един набор от данни. Резултатът на централизирания модел беше (естествено) същият като този на модела за федеративно обучение, тъй като математически те дават един и същ резултат.

Проектът euroCat, в който се използва Federated Learning, оказа значително въздействие върху развитието на персонализираната медицина в радиационната онкология. Той показа, че е възможно да се сътрудничи по модел за машинно обучение, без да се споделят чувствителни данни, като същевременно се получават резултати, които са същите като тези, постигнати чрез централизирано обучение. Освен това подходът на проекта даде възможност за по-добро и персонално лечение на пациентите с рак, тъй като моделите за машинно обучение бяха обучени върху комбинация от набори от данни, които представяха вариациите в цялата популация от пациенти с рак от тези (пет) болници.

Решението се използва в няколко клиники в цяла Европа. Методологията обаче е приложима и в други сектори, в които споделянето на данни между независими страни не е възможно, като например здравеопазването, банковото дело и застраховането.

Нека работим заедно

Като натиснете бутона Приемам, вие давате съгласието си за използването на бисквитки при достъпването на този уебсайт и използването на нашите услуги. За да научите повече как се използват и управляват бисквитките, моля, обърнете се към нашата

Cookie Statement & Privacy Policy