Як дрэнная бяспека Generative AI можа пагражаць вашай інтэлектуальнай уласнасці

Што выдатна ў генератыўным ІІ? Ён вучыцца па ходзе.

Што складана ў генератыўным ІІ і бяспецы? Ён вучыцца па ходзе.

Падказкі, якія вы ўводзіце ў і іншы генератыўны штучны інтэлект, могуць дапамагчы гэтым інструментам штучнага інтэлекту вучыцца. Але гэта не зусім добра , таму што гэтыя ўводы, якія могуць уключаць у сябе запатэнтаваную інфармацыю, могуць у канчатковым выніку быць уключаны ў вялікую моўную мадэль (LLM) штучнага інтэлекту і перададзены іншым карыстальнікам, калі яны адказваюць на іх пытанні.

Добрым прыкладам з’яўляецца самы папулярны інструмент AI, У сваіх Умовах выкарыстання распрацоўшчык OpenAI кажа:

«Калі вы выкарыстоўваеце нашы не-API спажывецкія сэрвісы  або DALL-E, мы можам выкарыстоўваць даныя, якія вы нам прадстаўляеце, для паляпшэння нашых мадэляў», — гаворыцца ва Умовах для гэтых спажывецкіх сэрвісаў ад 10 красавіка 2023 г. (Даныя карыстальнікаў НЕ праглынаецца пры апрацоўцы праз API OpenAI.)

Каб было ясна, OpenAI прапануе форму адмовы , якую арганізацыі могуць адправіць

аб прадухіліць паглынанне іх дадзеных або DALL-E. Акрамя таго, OpenAI кажа, што толькі невялікая выбарка дадзеных кліентаў будзе выкарыстоўвацца для навучання мадэлі. Але, па змаўчанні, рызыка існуе.

Такім чынам, што гэта значыць для інтэлектуальнай уласнасці і бяспекі ў эпоху генератыўнага ІІ?

Генератыўны штучны інтэлект і рызыкі для інтэлектуальнай уласнасці
Калі вы не ведаеце , што выкарыстоўваеце  Спіс нумароў WhatsApp  Generative AI у бяспечным для брэнда асяроддзі , самы бяспечны курс дзеянняў просты: не давайце AI тое, што вы не жадаеце ўключыць у яго сховішчы ведаў . (Мы абмяркуем «асяроддзе, бяспечнае для брэнда» Generative AI у наступным раздзеле гэтага паведамлення.)

Уявіце сабе кашмарны сцэнар , калі хтосьці спрабуе пачаць напісанне прэзентацыі, перадаючы падрабязнасці аб будучай дарожнай карце прадукту або іншыя канфідэнцыйныя паведамленні.

Пасля таго, як гэтыя даныя будуць праглынуты штучным інтэлектам, ёсць шанец, што яны будуць уключаны ў навучанне штучнага інтэлекту. OpenAI запэўнівае карыстальнікаў, што трэба пазбягаць выкарыстання канфідэнцыйнай інфармацыі пры выбарцы ўводу кліентаў у навучальных мэтах, але ні людзі, ні штучны інтэлект не ідэальныя. Калі канфідэнцыяльныя даныя  CM to CMO Course  кампаніі трапляюць у корпус , яны могуць у канчатковым выніку выцячы назад.

Samsung ужо жыве часткай гэтага кашмару. Некаторыя з яго распрацоўшчыкаў

выкарыстоўвалі д, а таксама нататкі ўнутранай сустрэчы. Цяпер гэтыя даныя захоўваюцца на серверах OpenAI. Пакуль незразумела, ці ёсць у Samsung магчымасці паўторна абараніць дадзеныя. У адваротным выпадку ён стане даступным для канкурэнтаў.

Цяпер Samsung працуе над прадухіленнем новых  usa bu   уцечак даных, распрацоўваючы ўласнае генератыўнае рашэнне AI.

Зніжэнне рызыкі
Маркетолагі і прадаўцы B2B павінны прайсці навучанне, каб разумець рызыкі абмену канфідэнцыйнай інфармацыяй з агульнадаступнай генератыўнай мадэллю штучнага інтэлекту.

Калі вы з’яўляецеся маркетолагам кантэнту B2B і выкарыстоўваеце такі інструмент, як, каб дапамагчы стварыць змест агульных ведаў у пачатку варонкі, гэта, напэўна, не праблема. Але калі вы шукаеце цэтлікі для напісання новых ініцыятыў або прапаноў прадуктаў, вам варта трымацца далей — або пачакаць, пакуль ваша ІТ-аддзел запоўніць форму адмовы і паведаміць вам, што інструмент бяспечны ў выкарыстанні.

Бяспечнае для брэнда асяроддзе ўжо існуе. Такія інструменты

як размоўная электронная пошта ад 6sense , Writer.com і Jasper.ai, стварылі бяспечнае асяроддзе, у якім брэнды могуць скарыстацца перавагамі генератыўнага штучнага інтэлекту без вяртання іх даных у агульнадаступную LLM.

Бяспечнае для брэнда асяроддзе квітнее
Кампаніі спяшаюцца ствараць бяспечнае асяроддзе, дзе яны могуць разгортваць адладжаныя ўласныя мадэлі штучнага інтэлекту. Дакладна наладжаная генератыўная мадэль штучнага інтэлекту навучаецца на пэўных наборах даных, якія дазваляюць штучнаму інтэлекту ствараць кантэнт, адаптаваны для такіх выпадкаў выкарыстання, як:

Напісанне брэндавым голасам кампаніі
Выкарыстанне ўнутраных дадзеных для адказаў на запыты
Надзейны адказ на вельмі тэхнічныя пытанні
Падумайце аб генератыўным інструменце штучнага інтэлекту як аб нядаўна нанятым супрацоўніку. Ён прыносіць багатыя веды, атрыманыя вялікай моўнай мадэллю, такой як GPT-4. Ён быў добра адукаваны, але ён яшчэ не ведае асаблівасцяў вашай кампаніі.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top