OpenAI пытается исправить работу ИИ и сделать его более полезным

OpenAI пытается исправить работу ИИ и сделать его более полезным

Как опытный исследователь с опытом работы в области искусственного интеллекта и технологий, я считаю новое направление OpenAI с моделями o1-preview весьма многообещающим. Будучи непосредственным свидетелем быстрого развития ИИ, как его успехов, так и неудач, отрадно видеть, что такой крупный игрок, как OpenAI, признает необходимость улучшений.


OpenAI, что удивительно, задержала свой ответ, чтобы обеспечить более точный результат.

Недавно представленные модели OpenAI o1-preview были специально созданы для решения того, что OpenAI называет сложными проблемами — сложными задачами, охватывающими такие области, как наука, программирование и математика. Эти новые модели доступны через платформу ChatGPT с дополнительным доступом через API, хотя они все еще находятся в активной разработке. Это захватывающая концепция с большим потенциалом.

Как энтузиаст технологий, я очень рад видеть, что одна из компаний, у которых были проблемы с ИИ, теперь предпринимает шаги по его улучшению. Часто люди рассматривают ИИ как загадочную научную область, но по своей сути он ничем не отличается от любого другого сложного программного обеспечения. Здесь нет никакой магии; программа ИИ получает входные данные и генерирует выходные данные в зависимости от того, как был написан код. Все дело в программировании, доработке и обучении на своих ошибках, чтобы сделать его лучше.

Нам это кажется почти волшебством, потому что мы привыкли к тому, что программное обеспечение дает разные результаты. Однако когда он начинает вести себя как человек, он кажется удивительно интересным и опережает свое время – и это просто потрясающе! Кто не хотел бы вести остроумные беседы со своим компьютером, как Тони Старк?

Оказывается, стремление внедрить ИИ, похожий на чат, выявило свои ограничения, поскольку эти системы иногда могут давать забавные, но вводящие в заблуждение или даже тревожные ответы. Вместо того, чтобы называть это галлюцинацией, можно было бы описать это как получение ответов, которые с юмором не совсем соответствуют цели или пугающе неточны.

OpenAI пытается исправить работу ИИ и сделать его более полезным

Как технический энтузиаст, я делюсь некоторыми интригующими сведениями о последних моделях OpenAI. Изначально их модели GPT-4 удалось правильно решить только 13% вопросов экзамена Международной олимпиады по математике. Хотя это впечатляет по сравнению со многими человеческими результатами, очевидно, что машина должна быть способна к большей точности, когда дело доходит до математических задач. Но вот что становится интереснее: новая предварительная модель OpenAI o1 ответила на 83% тех же вопросов! Это значительное улучшение, которое подчеркивает эффективность новейших моделей в нашем стремлении к расширенным возможностям искусственного интеллекта.

Замечательно, что OpenAI остается верным своему названию и показывает, как эти модели обрабатывают информацию. В статье, посвященной способностям модели к рассуждению, вы можете просмотреть раздел «Цепочка мыслей», чтобы взглянуть на мыслительный процесс. Я нашел раздел «Безопасность» особенно интригующим, поскольку в модели реализованы определенные меры безопасности, чтобы не допустить предложения самодельных рецептов мышьяка, чего не делает модель GPT-4 (пожалуйста, не пытайтесь создать домашний мышьяк). Эта функция безопасности предназначена для борьбы с текущими стратегиями, которые манипулируют моделями диалогового ИИ, заставляя их нарушать свои собственные правила, как только они будут полностью разработаны.

С моей точки зрения, как наблюдателя, интересно наблюдать, как OpenAI намеренно замедляет свои ответы, чтобы улучшить качество ответов, когда мы ищем немедленную информацию. Мой коллега и редактор TopMob Деррек Ли метко заметил это. Действительно, кажется, что даже если результаты не идеальны, этот пример демонстрирует технологическую компанию, отдающую предпочтение качеству, а не скорости, что заслуживает похвалы.

Похоже, что OpenAI работает над улучшением своей языковой модели (LLM), чтобы преуспеть в задачах, с которыми текущая модель не справляется. Это обновление может привести к созданию более надежного и безопасного диалогового ИИ, повысив его точность. Я поддерживаю это улучшение и верю, что Google последует этому примеру, улучшая свою собственную технологию искусственного интеллекта, чтобы она соответствовала прогрессу, достигнутому OpenAI.

Искусственный интеллект не исчезнет в ближайшее время; вместо этого оно будет сохраняться до тех пор, пока кто-нибудь не изобретет преемника, обещающего большую прибыль. В то же время компаниям было бы разумно сосредоточиться на доработке и оптимизации ИИ.

Смотрите также

2024-09-12 23:23