Cover Image

Генеральный директор Tether Паоло Ардоино недавно обратился в социальную сеть X, чтобы предупредить о подводных камнях централизованных моделей больших языков (LLM). 

Ардоино указал на сообщения об OpenAI, ведущей компании в области генеративного искусственного интеллекта, которая в начале 2023 года подверглась серьезному нарушению безопасности, назвав этот инцидент «страшным». 

Согласно недавнему отчету The New York Times, OpenAI предпочла не раскрывать информацию о взломе, несмотря на то, что некоторая конфиденциальная информация оказалась раскрыта. 

карта

Бывший исследователь OpenAI Леопольд Ашенбреннер раскритиковал компанию за неадекватные меры безопасности, которые могут сделать ее уязвимой для злоумышленников, связанных с иностранными правительствами. Ашенбреннер заявил, что лидер ИИ решил разорвать с ним связи из-за политики. Однако в компании опровергли, что вышеупомянутый инцидент стал причиной увольнения исследователя, добавив, что нарушение было раскрыто еще до того, как он был принят на работу в OpenAI. 

Тем не менее, существуют некоторые опасения по поводу того, что секреты OpenAI окажутся в руках Китая, несмотря на то, что компания утверждает, что ее нынешняя технология не представляет угрозы для национальной безопасности. 

карта

Помимо инцидентов с безопасностью, централизованные модели ИИ также подвергаются критике за неэтичное использование данных и цензуру. Руководитель Tether считает, что раскрытие возможностей местных моделей искусственного интеллекта — это «единственный способ» решить проблемы конфиденциальности, а также обеспечить устойчивость и независимость.  

«Локально исполняемые модели ИИ — единственный способ защитить конфиденциальность людей и обеспечить устойчивость/независимость», — сказал Ардоино в сообщении в социальной сети X. 

Он добавил, что современные смартфоны и ноутбуки достаточно мощны для тонкой настройки общих LLM.