BgGPT ли ве? Ама с наши пари нали?.. 🤡
Като се има предвид, че около 170 милиона лева от държавния бюджет ще отиде за заплатки в INSAIT, по-подходящо би било SocGPT да го бяха кръстили…
Аматьорите правят AI през НПО-та с капитал от частния бизнес, а ние ще правим AI през кибер ТКЗС на държавна издръжка. 😂

  • Captain Dan@plrm.podcastalot.com
    link
    fedilink
    arrow-up
    1
    ·
    10 months ago

    @dHardestBattles
    Нещо като чадърчето със соларния панел от алиекспрес дето зарежда телефони на плажа… разработка на бг стартъп от техпарка.
    Или на БАН робота за дезинфекция срещу ковид с ултравиолетови лъчи - един робот-прахосмукачка, с прикрепена отгоре му уеб камера от ония евтините с четири сини диода около обектива - всичко това от алиекспрес естествено…

    И за двете имаше репортажи в стил булгар-булгааар по всичките ни телевизии, не ми се търси сега…

  • Captain Dan@plrm.podcastalot.com
    link
    fedilink
    arrow-up
    1
    ·
    10 months ago

    @dHardestBattles@mastodon.social
    INSA-IT имс ли нещо опщо с INSA-OIL… Или просто сафпадение…
    @spas_kolev@wikis.world

    • @thatfatguy_bg@plrm.podcastalot.com
      Няма, имат общо с други, но ще си спестя клюките, поради причина че няма особено значение това. В смисъл няма връзка с политиката и мутрите.
      @spas_kolev@wikis.world

  • mapto@masto.bg
    link
    fedilink
    arrow-up
    0
    ·
    10 months ago

    @dHardestBattles има ли линк някъде. Щото по света гледат да правят моделите по-общи като комбинират различни типове данни. Би било странно нашите да решат да ограничат езика.

      • mapto@masto.bg
        link
        fedilink
        arrow-up
        1
        ·
        10 months ago

        @dHardestBattles@mastodon.social хех, не са се престарали. Защо пък да се хабят да обясняват що за модел е. А в опциите направо питат кой има желание да им дава вътрешна бизнес информация

          • mapto@masto.bg
            link
            fedilink
            arrow-up
            1
            ·
            10 months ago

            @dHardestBattles@mastodon.social те ако така се събираха, досега да сме се напълнили с LLMи

              • mapto@masto.bg
                link
                fedilink
                arrow-up
                1
                ·
                10 months ago

                @dHardestBattles@mastodon.social
                Повече параметри отколкото данни? Явно гледат в перспектива?

                “В първата си версия моделът е обучен върху над 3 милиарда изречения и се състои от 7 милиарда параметри.”
                https://dnevnik.bg/4576103