Изкуствения интелект на OpenAI може да „модерира“ какво пишем в интернет

Софтуерът е в състояние да замени десетки хиляди човешки модератори

Изкуствения интелект на OpenAI може да „модерира“ какво пишем в интернет | StandartNews.com

OpenAI разкри, че нейните разработки са в състояние да облекчат една от най-трудните и изнервящи технически задачи - задачата за модериране на съдържание. Големият езиков модел на GPT-4 е в състояние да замени десетки хиляди човешки модератори, като демонстрира еднакво висока точност и още по-голяма последователност.

OpenAI съобщи в корпоративния си блог, че вече използва GPT-4, за да усъвършенства собствените си политики за съдържание, етикетиране и индивидуални решения. Разработчикът дори посочва редица предимства на изкуствения интелект пред традиционните подходи за модериране на съдържание.

Първо, хората интерпретират политиките по различен начин, докато машините са последователни в преценките си. Насоките за модериране могат да бъдат обемни и постоянно променящи се - на хората им е необходимо дълго време, за да се научат и адаптират към промените, докато големите езикови модели прилагат новите политики незабавно. Второ, GPT-4 е в състояние да помогне за разработването на нова политика в рамките на няколко часа. Процесът на етикетиране, събиране на обратна връзка и усъвършенстване обикновено отнема седмици или дори месеци. Трето, не може да се пренебрегва психологическото благополучие на служителите, които в резултат на работата си са постоянно изложени на злонамерено съдържание.

Популярните социални мрежи съществуват от почти две десетилетия, да не говорим за други онлайн общности, но модерирането на съдържанието все още е една от най-трудните задачи за онлайн платформите. Meta, Google и TikTok са изградили цели армии от модератори, които трябва да преглеждат ужасно и често травмиращо съдържание. Повечето от тях живеят в нископлатени развиващи се страни, работят за външни компании и се опитват да се справят с травмите сами с минимална помощ.

Самата OpenAI все още разчита в голяма степен на човешки ресурси - тя наема работници от африкански страни, за да коментират и маркират съдържание. Това съдържание може да бъде проблематично, което прави работата на тези служители стресираща при ниско заплащане. А гореспоменатите Meta, Google и TikTok използват вътрешни модели с изкуствен интелект в допълнение към човешките модератори, така че предложеното от OpenAI решение ще се окаже полезно за по-малките компании, които нямат ресурси за разработване на собствени системи.

Всяка платформа признава, че няма перфектни механизми за модериране в голям мащаб: и хората, и машините правят грешки. Процентът на грешките може да е нисък, но все още има милиони потенциално вредни публикации, които си проправят път към публичното пространство - и вероятно също толкова безвредно съдържание, което се скрива или премахва. Освен това остава "сивата зона" на неточно или обидно съдържание, което отговаря на изискванията на политиките за модериране, но озадачава автоматизираните системи - такова съдържание е трудно за оценка дори от хора-модератори, така че машините често допускат грешки. Същото се отнася и за сатирични публикации и материали, документиращи престъпления или злоупотреба с власт от страна на служители на правоприлагащите органи. И накрая, не бива да забравяме за вътрешните проблеми, характерни за системите с изкуствен интелект - "халюцинации" и "дрейф", които също могат да усложнят работата на модераторите с изкуствен интелект.

Вижте всички актуални новини от Standartnews.com

Коментирай