Apple присоединяется к числу компаний, которые запрещают использовать ChatGPT и другие инструменты генеративного ИИ для корпоративных нужд.
Согласно документу, полученному The Wall Street Journal, Apple опасается, что сотрудники, используя эти инструменты, могут случайно разгласить конфиденциальную информацию. Учитывая то, что произошло с Samsung в апреле, когда сотрудники случайно загрузили исходный код в ChatGPT, неудивительно, что Apple хочет снизить риски.
В документе прямо указывается, что использование такого ПО как GitHub Copilot — ИИ-инструмента, способного генерировать и писать простой код, запрещено. Несмотря на то, что это значительно экономит время программистов, проблема в том, что данные ИИ инструментов хранятся на внешних серверах, которые используются для тренировки ИИ моделей, включая созданные и управляемые другими компаниями.
Допустим, вы работаете над кодом для суперсекретных AR-очков от Apple и имеете доступ к информации, которую не хотели бы случайно передать ИИ, управляемому конкурентами, вроде Microsoft или Google. Именно поэтому такие компании, как Amazon, Verizon, JPMorgan Chase и Northrop Grumman, временно запретили ChatGPT.
Недавно OpenAI обновила настройки конфиденциальности ChatGPT, позволяя пользователям удалять и отключать историю чата, что препятствует использованию этих данных для тренировки его большой модели языка. Однако, согласно его FAQ по контролю данных, все беседы сохраняются в течение 30 дней перед окончательным удалением для "мониторинга злоупотреблений", но не более.
На звонке с инвесторами генеральный директор Apple Тим Кук заявил, что "очень важно тщательно и осознанно подходить к этим вопросам, и есть ряд проблем, которые нужно решить" по отношению к внедрению ИИ.
Как и Samsung, Apple, по слухам, работает над своим внутренним ИИ, чтобы сотрудники могли пользоваться преимуществами эффективности, которую могут принести эти генеративные инструменты, не разглашая секреты компании всему миру.