EUR 1.9558
USD 1.8824
CHF 2.1037
GBP 2.3574
CNY 2.5792
you tube
mobile version

Технологична безработица заради изкуствения интелект

АБОНАМЕНТ ЗА НОВИНИ [X]

Въведете Вашият e-mail адрес, за да получавате най-важните новини на EconomyNews за деня на своята електронна поща.
E-mail
 

Технологична безработица заради изкуствения интелект

mail10:06 | 14.02.2023прегледи 970 коментарикоментари 0


Изкуственият интелект е новата дигитална граница и от Microsoft до Google, от Amazon до Meta, технологичните колоси инвестират милиарди в него. С това обаче рискът от така наречената "технологична безработица" нараства.

От пускането си на 30 ноември миналата година ChatGPT, най-известният в момента чатбот, който се базира на изкуствения интелект, се превърна в своеобразен феномен. Програмата е последният прототип, създаден от OpenAI, лаборатория за проучвания в Калифорния, която популяризира разработването на т. нар. приятелски AI и се основава на предишния изкуствен интелект на групата GPT-3.

ChatGPT е толкова "апетитен", че вече привлече погледа и финансирането на Microsoft. Технологичният гигант обяви, че осъществява "многогодишна и многомилиардна инвестиция" от 10 милиарда долара в OpenAI. Американската компания вече е инвестирала над 3 милиарда долара в OpenAI. Новото споразумение е ясен сигнал за важността на изкуствения интелект за бъдещето на технологичния гигант в конкуренцията му с други големи колоси в сектора като Google, Meta и Apple.

Съществените инвестиции на големите технологични компании в изкуствения интелект излизат далеч извън рамките на сегашния интерес към ChatGPT и са свидетелство, че макар и да не се предвижда в краткосрочен план пълна замяна на човешкия фактор, то машините ще са все по-интегрирани в живота и действията на хората. И този факт поражда не малко въпроси от етична гледна точка. 

Автоматизацията се е превърнала в приоритет във всички области: напредъкът преминава през механизацията и малцина се замислят каква ще е съдбата на служителите, които поне според статистическите данни, икономическите  и научни прогнози ще загубят работните си места. Роботиката скоро ще направи възможно създаването на поколение от толкова интелигентни машини, които ще могат да заменят не само тежкия труд , но и "белите якички". Така ще се постави началото на феномен, който вече бе прогнозиран от Джон Мейнард Кейнс – "технологична безработица" или загубата на работа, дължаща се на технологичния преход. Тази промяна се отнася единствено за въвеждането на технологии, които позволяват да се намали тежестта на труда на служителите и да се внедри автоматизация.

Кейнс изразява безпокойство си от краткосрочната "неспособност за адаптиране", която вероятно отразява и настоящия проблем с автоматизацията: неадекватността на институциите и на цялото общество да управлява, организира и следва темпа на техническа промяна, както и влиянието на нововъведенията върху служителите. Когато технологията елиминира  (както се е случвало в миналото) конкретен вид работа или цяла категория служители, то те трябва да се приспособят към промяната, подобрявайки компетенциите си и намирайки си ново работно място. Този процес може да отнеме време. За по-оптимистично настроените анализатори става дума за преходна фаза, в края на която цялото общество ще се възползва от внесените иновации, а икономиката ще намери ново равновесие.

Ако обаче е нужно повече време от едно десетилетие, за да се постигне това равновесие? Как това ще отрази на милиони работни места, които в най-скоро време ще бъдат съкратени? А ако впоследствие технологията отново се модифицира и служителите не могат да следват промените?

Трябва да се запитаме дали пропастта между технологичния напредък и приспособяването на служителите може да бъде преодоляна или това е необратим процес, който допълнително ще засили неравенството. 

Експертите не са на единно мнение и по въпроса дали хората наистина трябва да знаят как функционира изкуственият интелект. Интуитивно способността да се следва алгоритъма би трябвало да е по-силна от невъзможността това да се направи, пише "Економист". Проучване на учени от Харвардския университет, Масачузетския технологичен университет и Политехническия университет в Милано показва , че твърде многото обяснения могат да се превърнат в проблем.

Служители в американската мултинационална компания Tapestry, която има портфолио от луксозни марки, са получили достъп до модел за прогнозиране, който им казва как да разпределят складовите наличности в магазините. Някои използват модел, чиято логика може да бъде интерпретирана, а други модел, който e по-скоро "черна кутия" (най-известният концептуален модел на потребителско поведение). Оказва се, че служителите са били по-склонни да игнорират модели, които могат да разберат, тъй като погрешно са били сигурни  в интуицията си. Те са били готови да приемат решенията на модела, който не могат да разберат заради доверието им в опита на хората, които са го създали.

Различните начини, по които хората реагират на други хора и на алгоритми са обект на все повече проучвания. В неотдавнашен доклад Гизем Ялчън от Тексаския университет в Остин и съавтори разглеждат как потребителите отговарят различно на решения - одобряване на някого за заем или членство в кънтри клуб - когато те са направени от машина или човек. Според тях хората реагират по същия начин, когато са отхвърлени. Те не са толкова положително настроени, когато са одобрени от алгоритъм, а не от друг човек. Причината за това? Хората се справят добре, когато обясняват неблагоприятни решения, независимо кой ги взима. По-трудно за тях е обаче да припишат успеха на кандидатурата си на собствения си чар и способности, когато те са оценени от машина. Хората искат да се чувствата специални, а не да са сведени до точка с данни.

Картината, която това проучване рисува, поражда смесени чувства. Тя е динамична, тъй като, както технологиите еволюират, така това се случва и с човешките нагласи. Едно нещо обаче е кристално ясно, отчита "Економист". Въздействието на ChatGPT и други форми на изкуствен интелект ще зависи не само от това, което могат да направят, но и как ще накарат да се чувстват хората./БТА


 
 
 
Още от рубриката
 
 
Коментирай
 
Име:

E-mail:

Текст:

Код за
сигурност:

Напишете символите в полето:




 
БЮЛЕТИН НА EconomyNews.bg