Чому наказ Трампа, спрямований на” пробуджений ” штучний інтелект, може бути неможливим

0
4

Штучний інтелект в лещатах ідеології: чи може наказ Трампа задушити інновації?

Штучний інтелект (ШІ) стрімко проникає в усі сфери нашого життя, від медицини і освіти до оборони і фінансів. Його потенціал величезний, але разом з тим виникають серйозні питання про етику, упередженість і контроль. Нещодавнє Розпорядження Президента Трампа, яке вимагає від розробників ШІ, які працюють з федеральними контрактами, створення систем, “вільних від ідеологічних упереджень”, викликало бурхливу дискусію і, на мій погляд, є серйозною загрозою для розвитку технологій і, зрештою, для самого суспільства.

Наказ, по суті, пропонує державі нав’язати свої власні цінності і світогляд розробникам ШІ. Але що означає “вільний від ідеологічних упереджень” насправді? Хто визначає, які погляди є “об’єктивними”, а які – ні? І, найголовніше, чи можливо взагалі створити ШІ, повністю позбавлений забобонів, враховуючи, що він навчається на даних, створених і структурованих людьми, не позбавленими власних переконань?

Упередженість-невід’ємна частина даних

Я працюю в галузі аналізу даних вже більше десяти років, і одним з найбільших викликів, з якими я стикаюся, є боротьба з упередженістю даних. ШІ – це, по суті, вдосконалений інструмент аналізу даних, який здатний виявляти та використовувати закономірності, які людина може не помітити. Однак, якщо дані, на яких він навчається, містять упередженості, ШІ неминуче відтворить і посилить їх.

Наприклад, якщо алгоритм навчання ШІ для підбору персоналу навчається на даних про співробітників, в яких переважають чоловіки, він може несвідомо віддавати перевагу чоловікам при наймі нових співробітників, навіть якщо це суперечить принципам рівності та інклюзивності. Або, якщо система розпізнавання обличчя навчається на даних, в яких недостатньо представлені люди з темним кольором шкіри, вона може працювати менш точно для цих людей, що може призвести до дискримінації.

Упередженість може проникати в дані різними способами: від історичних стереотипів та культурних упереджень до неточностей у зборі та обробці даних. Викорінити її повністю-завдання практично нездійсненне.

Ілюзія “об’єктивності”

Наказ Трампа, на мою думку, заснований на помилковому уявленні про те, що можна створити “об’єктивний” ШІ. Він припускає, що можна відокремити технології від цінностей та переконань людей, які їх створюють. Але це не так. Кожен етап розробки ШІ, від вибору даних для навчання до визначення метрик оцінки продуктивності, несе в собі відбиток людських рішень і переваг.

Спроба нав’язати ШІ певну ідеологію, навіть якщо вона підноситься як “об’єктивна”, може привести до небажаних наслідків. По-перше, це може придушити інновації, оскільки розробники будуть змушені адаптувати свої системи до вимог уряду, а не слідувати власним ідеям. По-друге, це може призвести до створення ШІ, який відображатиме не істину, а політичний порядок денний.

Небезпека глобальних наслідків

Особливої уваги заслуговує потенційний вплив наказу Трампа на глобальний ринок ШІ. Як зазначає Пол Реттгер з Університету Бокконі, спроба нав’язати американську ідеологію глобальним моделям ШІ може призвести до серйозних проблем. Компанії, які захочуть працювати з американським урядом, будуть змушені адаптувати свої системи до вимог Вашингтона, що може призвести до відторгнення з боку користувачів в інших країнах.

Крім того, наказ Трампа може створити прецедент, який буде використаний іншими країнами для просування своїх власних ідеологічних поглядів в області ШІ. Це може призвести до фрагментації глобального ринку ШІ та ускладнити створення єдиних стандартів та правил.

Що робити?

Замість того, щоб намагатися нав’язати ШІ певну ідеологію, нам слід зосередитись на створенні більш прозорих, підзвітних та інклюзивних систем ШІ. Це вимагатиме від нас:

  • Підвищення прозорості: Необхідно, щоб розробники ШІ були відкритими щодо даних, алгоритмів та процесів прийняття рішень, які використовуються в їх системах.
  • Забезпечення підзвітності: Розробники ШІ повинні нести відповідальність за наслідки своїх систем, включаючи упередженість та дискримінацію.
  • Заохочення інклюзивності: Необхідно залучати до розробки ШІ людей з різним досвідом і поглядами, щоб уникнути створення систем, що відображають тільки вузьке коло цінностей.
  • Розвитку методів виявлення і пом’якшення упередженості: Необхідно розробляти і впроваджувати методи, що дозволяють виявляти і пом’якшувати упередженість в даних і алгоритмах ШІ.
  • Сприяння етичним дискусіям: Необхідно створити платформи для обговорення етичних питань, пов’язаних з ШІ, та розробити етичні принципи та вказівки для розробників та користувачів ШІ.

Особистий досвід та спостереження

Під час роботи над проектами, пов’язаними з аналізом даних в охороні здоров’я, я неодноразово стикався з проблемою упередженості даних. Наприклад, при розробці алгоритму для прогнозування ризику розвитку серцево-судинних захворювань, ми виявили, що він працює менш точно для жінок і представників етнічних меншин. Це було пов’язано з тим, що дані, на яких він навчався, були в основному зібрані у чоловіків європейського походження. Щоб вирішити цю проблему, нам довелося використовувати більш різноманітні дані та розробляти спеціальні методи для врахування відмінностей між різними групами населення.

Цей досвід переконав мене, що створення справедливого та неупередженого ШІ – це складне, але здійсненне завдання. Однак для цього потрібен усвідомлений підхід, постійний моніторинг та готовність адаптувати свої методи відповідно до мінливих обставин.

Укладення

Наказ Трампа, спрямований на” пробуджений ” штучний інтелект, є небезпечним прецедентом, який може задушити інновації та призвести до створення ШІ, що відображає політичний порядок денний, а не істину. Замість того, щоб намагатися нав’язати ШІ певну ідеологію, нам слід зосередитися на створенні більш прозорих, підзвітних та інклюзивних систем ШІ, які служать інтересам усього суспільства. Необхідно пам’ятати, що ШІ – це лише інструмент, і його ефективність та справедливість залежать від того, як ми Його використовуємо. І, як і будь-який інструмент, він може бути використаний як на благо, так і на шкоду. Наше завдання-переконатися, що ШІ використовується для створення кращого майбутнього для всіх.