OpenAI w pogotowiu: ChatGPT może zostać użyty do produkcji broni biologicznej

OpenAI, amerykańska firma zajmująca się sztuczną inteligencją , która opracowała popularnego chatbota ChatGPT, twierdzi, że jej przyszłe modele są niezwykle zaawansowane i mogą nawet mieć zdolność do produkcji zupełnie nowej broni biologicznej. W niedawnym wpisie na blogu firma stwierdziła, że zamierzają zachować równowagę między „umożliwianiem postępu naukowego przy jednoczesnym utrzymaniu bariery dla szkodliwych informacji” a budowaniem bardziej zaawansowanych modeli, które „mają pozytywne przypadki użycia, takie jak badania biomedyczne i obrona biologiczna”. Dowiedziano się, że firma oceniła również możliwość wykorzystania swoich modeli sztucznej inteligencji w produkcji broni biologicznej z tym wyrażeniem „szkodliwych informacji”.
NAWET AMATORZY MOGĄ TO ZROBIĆSzef bezpieczeństwa OpenAI Johannes Heidecke powiedział Axios, że chociaż nie oczekuje się, że przyszłe modele AI będą w stanie samodzielnie tworzyć broń biologiczną, narzędzia te mogą pomóc nawet amatorom w tym. „Nie żyjemy w nowym świecie, w którym tworzone są zupełnie nieznane zagrożenia biologiczne, które nigdy wcześniej nie istniały” — powiedział Heidecke. „Bardziej martwią nas rzeczy, z którymi eksperci są już bardzo dobrze zaznajomieni”. Szef bezpieczeństwa OpenAI przyznał również, że nowe modele firmy nie są jeszcze w pełni gotowe, ale dodał: „Oczekujemy, że niektóre wersje naszej generacji modelu rozumowania O3 osiągną ten poziom”.
Podejście ukierunkowane na zapobieganie„Nasze podejście koncentruje się na zapobieganiu” — powiedziała firma we wpisie na blogu. „Nie uważamy, że dopuszczalne jest czekanie i sprawdzanie, czy wystąpi zagrożenie biologiczne, zanim podejmiemy decyzję o odpowiednim poziomie bezpieczeństwa”. Istnieją obawy, że modele, które pomogły w osiągnięciu przełomów w biomedycynie, mogą być również wykorzystywane przez złych aktorów. Aby „zapobiec wystąpieniu szkody”, jak to ujmuje Heidecke, te przyszłe modele będą musiały zostać zaprogramowane tak, aby były „prawie idealne” zarówno w ostrzeganiu ludzi o potencjalnych zagrożeniach, jak i ich rozpoznawaniu. Nawet 99-procentowa wydajność nie wystarczy, mówi Heidecke.
ntv