Binance Square
LIVE
LIVE
SingularityNET
--284 views
Переглянути оригінал
Квітень став ще одним місяцем неймовірного зростання нашої децентралізованої екосистеми ШІ. Слідкуйте за останніми оновленнями та основними моментами щодо запуску ASI Alliance, випуску Hyperon Alpha, розробки платформи, ініціатив, керованих спільнотою, тощо!

Квітень став ще одним місяцем неймовірного зростання нашої децентралізованої екосистеми ШІ. Слідкуйте за останніми оновленнями та основними моментами щодо запуску ASI Alliance, випуску Hyperon Alpha, розробки платформи, ініціатив, керованих спільнотою, тощо!

Відмова від відповідальності: контент містить думки третіх сторін і не є фінансовою порадою. Перегляньте Правила та умови.
0
Ознайомтеся з контентом для вас
Зареєструйтеся зараз і отримайте шанс здобути винагороди в розмірі 100 USDT!
або
Зареєструвати акаунт організації
або
Увійти
Релевантний автор
LIVE
@singularitynet

Перегляньте більше від автора

--
Join us this Tuesday, May 7th, 2024, at 5 pm UTC for the first session of a special two-part SingularityNET's Technical Tuesdays mini-series dedicated to the latest advancements in the development of a unified experiential learning component for OpenCog Hyperon, our framework for #AGI at the human level and beyond. Session 1 - The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations; - Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon. Session 2 - Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent); - Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining. These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to: - Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions; - Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge. Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude. To learn more, set your reminder for the livestream now on your preferred platform: - YouTube: https://youtube.com/live/P5VTM3dcn6A - LinkedIn: https://www.linkedin.com/events/beyondreinforcementlearning-how7192236486073757696/theater/ - X: @SingularityNET
--

Популярні статті

Більше
Карта сторінки
Cookie Preferences
Правила та умови користування платформою