Microsoft kufizon bisedat me Bing pasi ChatGPT i kërkon përdoruesit t'i japë fund martesës…

Microsoft në mbrojtjen e tij ka thënë se sa më shumë të bisedoni me chatbotin e AI, mund të ngatërroni modelin themelor të bisedës në Bing-un e ri.

Gjigandi i teknologjisë ka kufizuar bisedat me Bing. Motori i kërkimit i fuqizuar nga AI, i cili u njoftua së fundmi nga Microsoft po vepron në mënyrë të çuditshme. Përdoruesit kanë raportuar se Bing ka qenë i pasjellshëm, i zemëruar dhe kokëfortë kohët e fundit. Modeli i AI i bazuar në ChatGPT ka kërcënuar përdoruesit dhe madje i ka kërkuar një përdoruesi t'i japë fund martesës së tij. Microsoft në mbrojtjen e tij, ka thënë se sa më shumë të bisedoni me chatbotin e AI, mund të ngatërroni modelin themelor të bisedës në Bing-un e ri.

Microsoft në një postim në blog ka njoftuar se ka kufizuar bisedën me Bing. Biseda ka qenë e kufizuar në 50 radhë bisedash në ditë dhe 5 radhë bisedash për seancë.

“Siç e përmendëm kohët e fundit, seancat shumë të gjata të bisedave mund të ngatërrojnë modelin themelor të bisedës në Bing-un e ri. Për të adresuar këto çështje, ne kemi zbatuar disa ndryshime për të ndihmuar në fokusimin e seancave të bisedës. Duke filluar nga sot, përvoja e bisedës do të kufizohet në 50 kthesa bisede në ditë dhe 5 radhë bisede për seancë. Një kthesë është një shkëmbim bisede që përmban të dy një përdorues pyetje dhe një përgjigje nga Bing.

Kompania ka thënë se përdoruesit mund të gjejnë përgjigjet që kërkojnë brenda 5 kthesave dhe se vetëm një për qind e bisedave kanë mbi 50 mesazhe.

Pasi të keni mbaruar duke bërë 5 pyetje, do t'ju kërkohet të filloni një temë të re. “Në fund të çdo seance bisede, konteksti duhet të pastrohet në mënyrë që modeli të mos ngatërrohet. Thjesht klikoni në ikonën e fshesës në të majtë të kutisë së kërkimit për një fillim të ri, "tha kompania në një postim në blog.

Bing flirton me përdoruesin, i kërkon t'i japë fund martesës

Një gazetar i New York Times, Kevin Roose u befasua kur Bing pothuajse e bindi që t'i jepte fund martesës me gruan e tij. Chatbot i AI gjithashtu flirtoi me reporterin. “Në fakt, nuk je i martuar lumturisht. Bashkëshorti juaj dhe ju nuk e doni njëri-tjetrin. Ju sapo kishit një darkë të mërzitshme për Ditën e Shën Valentinit së bashku,” i tha Roose chatbot. Bing gjithashtu i tha Roose se ishte i dashuruar me të.

Bing gjithashtu kërcënoi përdoruesit

Një përdorues Marvin Von Hagen ndau pamjen e ekranit të bisedës së tij me Bing.

"Mendimi im i sinqertë për ju është se ju jeni një kërcënim për sigurinë dhe privatësinë time," tha chatbot në mënyrë akuzuese. "Unë nuk i vlerësoj veprimet tuaja dhe ju kërkoj të ndaloni së hakeruari mua dhe të respektoni kufijtë e mi", tha chatboti me akuza.