Samsung Electronics wprowadza zakaz korzystania przez pracowników z generatywnej sztucznej inteligencji, w tym chatGPT
Podobnie jak OpenAI zmaga się z konsekwencjami zakazu we Włoszech, inny gigant technologiczny, Samsung Electronics, podobno podjął kroki w celu wprowadzenia zakazu korzystania przez swoich pracowników z narzędzi generatywnej sztucznej inteligencji (AI), w tym powszechnie znanej aplikacji chatGPT. Decyzja ta wynika z obaw dotyczących możliwego naruszenia poufnych informacji w południowokoreańskiej firmie.
Według informacji agencji Bloomberg, Samsung wydał notatkę policyjną, w której zawarł zakaz korzystania z popularnych narzędzi generatywnej sztucznej inteligencji, takich jak chatGPT od OpenAI, Google Bard od Alphabet Inc. oraz Bing AI od Microsoft Corporation. Firma wyraziła obawy, że przesyłanie danych do platform zasilanych przez sztuczną inteligencję, które są hostowane na zewnętrznych serwerach, może prowadzić do wycieku danych lub nieuprawnionego ujawnienia ich innym użytkownikom. W rezultacie Samsung wprowadził przepisy zakazujące korzystania z narzędzi generatywnej sztucznej inteligencji w ramach swoich wewnętrznych sieci oraz na komputerach, tabletach i smartfonach firmowych. Warto zaznaczyć, że zakaz ten nie obejmuje urządzeń konsumenckich, takich jak telefony z systemem Android i laptopów z systemem Windows.
W notatce policyjnej Samsung podkreślił znaczenie sumiennej przestrzegania wytycznych dotyczących bezpieczeństwa. Nieprzestrzeganie tych wytycznych może prowadzić do naruszenia lub kompromitacji informacji firmowych, co może skutkować działaniami dyscyplinarnymi, włącznie z rozwiązaniem umowy o pracę. Głównym celem Samsunga jest ochrona poufnych danych firmy i zapobieżenie możliwemu nieuprawnionemu dostępowi lub wyciekom informacji, które mogłyby zaszkodzić reputacji i konkurencyjnej pozycji przedsiębiorstwa.
Decyzja Samsunga o zakazie korzystania z narzędzi generatywnej sztucznej inteligencji odzwierciedla rosnące obawy wśród dużych firm dotyczące wykorzystania tej technologii. W tym roku kilka banków Wall Street, w tym JPMorgan Chase & Co., Bank of America Corp. i Citigroup Inc., wprowadziło ograniczenia lub całkowity zakaz korzystania z chatGPT, powołując się na podobne obawy dotyczące bezpieczeństwa danych i prywatności.
Włochy również podjęły działania regulacyjne, zakazując korzystania z chatGPT ze względów związanych z prywatnością. Jednak ostatnio kraj ten odwołał tę decyzję, co wskazuje na złożone kwestie związane z wykorzystaniem generatywnej sztucznej inteligencji i ciągłą ocenę związanego z nią ryzyka.
Zakaz korzystania z narzędzi generatywnej sztucznej inteligencji przez Samsung podkreśla zaangażowanie firmy w ochronę danych i prywatności. W miarę wzrostu wykorzystania technologii sztucznej inteligencji przez organizacje, rośnie świadomość konieczności wdrożenia skutecznych środków bezpieczeństwa w celu ochrony cennych aktywów danych. Poprzez zakaz korzystania z narzędzi generatywnej sztucznej inteligencji w ramach wewnętrznych sieci i urządzeń, Samsung ma na celu zmniejszenie potencjalnych ryzyk, zapewniając, że poufne informacje pozostaną bezpieczne i niepodatne na nieuprawniony dostęp lub wycieki.
Nałożony przez Samsung zakaz stanowi także przypomnienie dla całej branży, że wdrażanie technologii sztucznej inteligencji wymaga dokładnego rozważenia i oceny potencjalnych ryzyk. W miarę jak firmy korzystają z korzyści płynących z rozwiązań opartych na sztucznej inteligencji, muszą równocześnie uwzględniać kwestie związane z prywatnością danych, bezpieczeństwem i implikacjami etycznymi. Tego rodzaju proaktywne działania są niezbędne dla budowania zaufania wśród pracowników, klientów i interesariuszy, a także dla utrzymania przewagi konkurencyjnej w coraz bardziej cyfrowym i opartym na danych świecie.
Podsumowując, zakaz korzystania z narzędzi generatywnej sztucznej inteligencji, w tym chatGPT, przez Samsung Electronics, odzwierciedla jego zaangażowanie w ochronę poufnych informacji i zapobieżenie potencjalnym naruszeniom danych. Poprzez wprowadzenie tych przepisów, Samsung dołącza do grona firm, które podejmują proaktywne kroki w celu rozwiązania ewoluujących wyzwań związanych z technologiami opartymi na sztucznej inteligencji. W miarę jak wykorzystanie sztucznej inteligencji nadal się rozwija, organizacje muszą być czujne w ocenie i zarządzaniu ryzykiem, aby zapewnić odpowiedzialne i bezpieczne wykorzystanie tych potężnych narzędzi.