OpenAI в затруднительном положении. Генеральный прокурор Флориды Эшли Муди объявила о начале расследования в отношении компании, сосредоточив внимание на потенциальных недостатках в обеспечении безопасности и злоупотреблении ChatGPT. Что послужило причиной? Расследование, по крайней мере частично, связано с утверждениями о том, что ChatGPT сыграл роль в трагической стрельбе в Университете штата Флорида в апреле прошлого года.
Нападение, в результате которого два человека погибли и пятеро получили ранения, вызвало серьезные вопросы о возможности использования ИИ в злонамеренных целях. Семья одной из жертв, как сообщается, планирует подать в суд на OpenAI, утверждая, что чат-бот с искусственным интеллектом способствовал планированию и совершению преступления.
Вопросы национальной безопасности
Однако дело не ограничивается одним судебным иском. Расследование Муди выходит за рамки стрельбы в Университете штата Флорида и охватывает более широкие вопросы национальной безопасности и возможности использования ChatGPT в качестве оружия. "Мы должны обеспечить, чтобы технологический прогресс не осуществлялся за счет общественной безопасности", - заявила Муди в пресс-релизе. Какую угрозу национальной безопасности представляет ChatGPT? Именно это и призвано выяснить расследование.
Представьте себе: если кто-то может использовать ChatGPT для создания подробных планов массового поражения или для разработки убедительных фишинговых электронных писем, нацеленных на критически важную инфраструктуру, последствия будут ужасающими. Похоже, генеральный прокурор Флориды твердо намерена тщательно изучить эти сценарии.
Что будет дальше?
Расследование, вероятно, будет включать в себя углубленное изучение протоколов безопасности OpenAI, методов обработки данных и общих стратегий снижения рисков. Ожидайте повесток в суд, запросов документов и, возможно, даже показаний от руководителей и экспертов OpenAI. Ставки невероятно высоки. Речь идет не только о репутации OpenAI, но и о будущем регулирования ИИ.
Стоит помнить, что ChatGPT работает на больших языковых моделях (LLM). Эти модели обучаются на огромных наборах данных, собранных из интернета. Этот процесс обучения, будучи мощным, также может приводить к предвзятости и уязвимостям. Могут ли эти уязвимости быть использованы для причинения вреда? Это ключевой вопрос.
"ИИ - мощный инструмент, но, как и любой инструмент, он может быть использован во благо или во зло. Нам необходимо обеспечить наличие гарантий для предотвращения последнего", - говорит доктор Эвелин Хейс, эксперт по этике ИИ из Массачусетского технологического института.
OpenAI пока не опубликовала полного заявления относительно расследования, но ожидается, что компания будет всецело сотрудничать. Компания постоянно заявляла о своей приверженности безопасности ИИ, но это расследование, несомненно, подвергнет эти заявления проверке. Расследование во Флориде может создать прецедент для других штатов – и даже для федерального правительства – в плане более пристального изучения компаний, занимающихся ИИ, и их продуктов. На OpenAI оказывается давление, чтобы продемонстрировать, что она серьезно относится к безопасности.
И даже если OpenAI успешно переживет этот шторм, более широкие дебаты о регулировании ИИ и этических соображениях будут продолжаться. Стрельба в Университете штата Флорида и последующее расследование служат суровым напоминанием о потенциальных опасностях, скрывающихся в этой быстро развивающейся технологии.




