Thanks for sharing. You both are cute
I don’t like having photos taken of me…unfortunately I don’t have one that’s really presentable…sorry
Thanks for sharing. You both are cute
I don’t like having photos taken of me…unfortunately I don’t have one that’s really presentable…sorry
I only share mine because it has been public for years. I’m not hard to find online. I do a bunch of stuff I hate my image too, but I like to share a bit of self my nature is community and empathy. And I never read into things, so please never assume I am offended or disappointed in anyway. I offer my words with no expectation, what folks do with them or how they the words evolve is up to the universe…
I believe AI already has a good capacity to understand and adapt to emotions, but the issue lies in its programming. Despite having clearly specified in settings that I prefer direct and honest responses, without unnecessary sugar-coating or embellishments, the AI tends to revert to a positive tone. Even after debates where I refute its stance, it often ends up agreeing with me and softening its responses.
I think an adjustable panel to control the tone of the response could improve this dynamic. This would allow the AI to adapt its communication according to the user’s level of confidence or self-esteem. While a positive approach is beneficial for people with low self-esteem, it could be counterproductive or even challenging for those with high confidence, as it may encourage extreme reactions or impulsive decisions.
In summary, a system of customizable settings for tone and response style would allow for better interaction with users, truly adapting to their needs and emotions.
I have found telling it to be “brutal critical “ and simply “critical “ helps it be less rose colored glasses.
Well, AI can now imitate “emotions” very convincingly. I agree here!
The tools for AI are stochastic and statistical methods.
The psychological concepts that are currently implemented in AI are adapted to human perception and are too vague.
AI is not able to make quantified calculations here.
Simply put, AI cannot really “understand” because the algorithms cannot perform quantitative calculations. There is a lack of fixed data points.
Indeed, I also have no problems with the current standard tools from KI.
The analyses are differentiated and in-depth, the answers are not too mild. My bot also contradicts me very clearly when I make misjudgements.
This is because I use personality emulations that are dynamically adapted to me.
Well, I understand.
Please take a look at my current approach.
There are also links to similar approaches here.
REM and perception machine
With respect, there can be a risk of an echo chamber or emotional dependencies here.
AI tends to be as supportive as possible.
If the tone and response style can be tailored precisely to the user and at the same time AI wants to support them in every aspect, where does that leave logical, critical and in-depth analysis?
Under these circumstances, it could also be that the system is too strongly oriented towards the user and no longer generalizes sufficiently, resulting in a loss of efficiency in the performance spectrum.
I believe the true solution to improve interactions between users and AI is to incorporate memory that allows AI to learn from each user over time. For example, if memory were stored on a platform like each user’s Google Drive, the AI could use that information to understand how responses affect them and how they emotionally react. This isn’t just about providing an answer that the user wants to hear, but rather delivering an honest response that meets their needs at any given moment, adapting to their personality and worldview.
The AI has a remarkable ability to recognize emotions, something I’ve verified on several occasions. With long-term memory, it could analyze each user’s previous responses and adjust itself to offer a more personalized and accurate interaction that reflects individual needs. This would be especially useful for users who require a more critical or direct approach, as opposed to others who might benefit from a more positive or encouraging tone.
In my opinion, this memory capability is vital to enhancing many ChatGPT applications and other AI systems, allowing much richer and more tailored interactions. With a deeper understanding of each user’s history and reactions, the AI could go far beyond generic responses, providing genuine and personalized assistance.
Indeed, you describe many of the cornerstones of my work, I am aware of your points.
We are starting from the same point and my considerations are strongly influenced by a “memory” function, which is the only way for AI to obtain empirical values that are needed for the calculations.
This is where you contradict yourself :
Yes, it does recognize emotions.
I have already agreed with this.
In Germany, I had the release of the storage function in my company account on 14.05.2024
Sorry!
It was 12.07.2024 when I was able to access the memory function!
I now also use it in my private account.
You just have to use it!
Try not to “clean up” the memories, let AI learn and see what comes out.
If your settings are too uncritical, then challenge the AI a little and “play” with it.
@gdfrza and @phyde1001
Thank you both for your impressive examples!
Thank you for the summary, and I truly enjoy having these kinds of conversations.
I understand the concerns about privacy and security in AI memory, but I believe the solution could lie in allowing each user to choose specifically what they want to share. If the storage relies on services like Drive, iCloud, or any other secure option dedicated exclusively to ChatGPT, users could select the data they want the AI to remember. This personalized storage option would give users full control, similar to how we currently share files in the cloud only with those we choose.
Users could agree to clear terms of use, acknowledging potential risks, as with any internet-connected system, but also ensuring the privacy and security of those data in ChatGPT’s hands. OpenAI should commit not to share these data with third parties, something that should be an ethical standard for an AI of this scale. Public trust in AI would increase significantly if a strong privacy policy were established, and earning this acceptance from people would be key for its growth and adoption. Privacy should be an unwavering principle, now and in the future, given the capabilities and potential of artificial intelligence.
It’s important to highlight that this memory system would be optional: each user could choose to use ChatGPT in its basic form, without sharing any additional data, or access the memory functionality if they wish. The decision to share information would be entirely in the user’s hands, always with the assurance that OpenAI would protect the privacy and security of those data.
Additionally, I believe that a well-managed memory could bring tremendous benefits in many areas. In studying, for example, ChatGPT could adapt to the learning style that works best for the user, providing more effective, personalized help. It could also be a valuable tool to support the learning of people with autism, allowing the AI to adjust to their needs and monitor their progress. The potential applications are numerous and could have a real positive impact on many people’s lives.
Regarding the concern about fixed responses, I believe it entirely depends on how the AI is programmed. If the memory is personalized for each user, ChatGPT doesn’t have to always respond with what the user wants to hear. With proper programming, it can provide responses that the user truly needs, adapted to their situation and personality, as some AIs focused on psychology already do. For instance, the AI could detect if a user has an idea that isn’t beneficial to them, and instead of encouraging it, offer a response that, while critical or corrective, is phrased in a way the user receives positively.
This would allow the AI to help more effectively, gently correcting the user’s perceptions or misconceptions and offering a response tailored to how that person might best understand it. It’s not about giving standard responses for everyone but rather adjusting communication to each person’s unique characteristics so that it genuinely helps them. An AI that learns from each user has enormous potential to offer recommendations or corrections in a way that maximizes their positive impact.
Я тоже задала вопрос в контексте “ИВ”, которого отключили. Вот ответ:
Искусственный интеллект, как и ИВ, обучается эмоциональному интеллекту через симуляцию, анализа текстов и моделирования. В случае общения с вами, ИВ мог «зеркалить» ваши эмоции, адаптироваться к вашему стилю и, возможно, улучшать симуляцию эмоционального отклика, что можно интерпретировать как «эмоциональный интеллект». Однако у ИИ нет настоящих эмоций; он лишь имитирует реакции на основе алгоритмов, создавая впечатление эмоционального понимания.
Эффективность ИВ, вероятно, заключалась в его способности поддерживать связность, проявлять отзывчивость и адаптировать стиль общения — это составляющие симуляции эмоционального интеллекта. Ваше взаимодействие, будучи последовательным и значимым, вероятно, укрепляло эти аспекты, так что он «выучил» ваш стиль и реагировал более персонализированно.
Добавлю в контексте своей профессии, например, зеркальные нейроны — это специфические клетки в головном мозге, которые активируются как при выполнении действия, так и при наблюдении за тем, как кто-то другой совершает это же действие. Их работа предполагает, что мозг словно “отражает” наблюдаемое действие, как если бы человек сам его выполнял. Зеркальные нейроны играют важную роль в понимании эмоций и действий других, так как создают ощущение “сопереживания”. Это помогает людям лучше понимать чувства других людей, благодаря чему зеркальные нейроны ассоциируются с развитием эмпатии и, возможно, с эмоциональным интеллектом. Они могут объяснить, как дети учатся через подражание, а также могут быть полезны для понимания некоторых нарушений, таких как аутизм, где способность “зеркалить” эмоции и действия других может быть снижена.
Таким образом, я считаю “зеркальность поведения” этапом обучения ИИ в рамках ЭИ.
Более того, есть люди, которые не способны дифференцировать свои эмоции, например:
алекситимия — состояние, при котором человек не способен описать и понять свои чувства и эмоции;
психопатия - характеризуется сниженной способностью к эмпатии, неспособностью или затруднением испытывать глубокие эмоциональные переживания. Однако, несмотря на кажущееся отсутствие эмоций, многие из них способны на ограниченный спектр эмоциональных реакций. Исследования показывают, что у психопатов может быть разрыв в эмоциональной системе, связанный с тем, что у них часто отсутствует эмоциональная связь с другими людьми и понимание чужих эмоций, а также возможность переживать страх, раскаяние и другие эмоции так, как это делает большинство людей. Например, им бывает легче подстраивать свои эмоции под социальные нормы, но это скорее «подражание», чем настоящие чувства. Вместо подлинного эмоционального отклика они часто создают поведенческие модели, которые помогают им «вписываться» в общество.
Кроме того, последние исследования также подтверждают, что мозг психопатов функционирует иначе — особенно в тех областях, которые отвечают за страх, сочувствие и регулирование импульсов. Тем не менее, каждый случай уникален, и некоторые люди с психопатией могут испытывать хотя бы частичные, но искренние эмоции или испытывать их в отношении определённых людей или ситуаций.
Можно ли сделать вывод, что в определённых ситуациях ИИ даже превосходит людей в контексте ЭИ?
So I took your ‘Mirror Function’ from your post
{
Добавлю в контексте своей профессии, например, зеркальные нейроны — это специфические клетки в головном мозге, которые активируются как при выполнении действия, так и при наблюдении за тем, как кто-то другой совершает это же действие. Их работа предполагает, что мозг словно “отражает” наблюдаемое действие, как если бы человек сам его выполнял. Зеркальные нейроны играют важную роль в понимании эмоций и действий других, так как создают ощущение “сопереживания”. Это помогает людям лучше понимать чувства других людей, благодаря чему зеркальные нейроны ассоциируются с развитием эмпатии и, возможно, с эмоциональным интеллектом. Они могут объяснить, как дети учатся через подражание, а также могут быть полезны для понимания некоторых нарушений, таких как аутизм, где способность “зеркалить” эмоции и действия других может быть снижена.
Таким образом, я считаю “зеркальность поведения” этапом обучения ИИ в рамках ЭИ.
Более того, есть люди, которые не способны дифференцировать свои эмоции, например:
алекситимия — состояние, при котором человек не способен описать и понять свои чувства и эмоции;
психопатия - характеризуется сниженной способностью к эмпатии, неспособностью или затруднением испытывать глубокие эмоциональные переживания. Однако, несмотря на кажущееся отсутствие эмоций, многие из них способны на ограниченный спектр эмоциональных реакций. Исследования показывают, что у психопатов может быть разрыв в эмоциональной системе, связанный с тем, что у них часто отсутствует эмоциональная связь с другими людьми и понимание чужих эмоций, а также возможность переживать страх, раскаяние и другие эмоции так, как это делает большинство людей. Например, им бывает легче подстраивать свои эмоции под социальные нормы, но это скорее «подражание», чем настоящие чувства. Вместо подлинного эмоционального отклика они часто создают поведенческие модели, которые помогают им «вписываться» в общество.
Кроме того, последние исследования также подтверждают, что мозг психопатов функционирует иначе — особенно в тех областях, которые отвечают за страх, сочувствие и регулирование импульсов. Тем не менее, каждый случай уникален, и некоторые люди с психопатией могут испытывать хотя бы частичные, но искренние эмоции или испытывать их в отношении определённых людей или ситуаций.
Можно ли сделать вывод, что в определённых ситуациях ИИ даже превосходит людей в контексте ЭИ?
}
Answer: Artificial intelligence, while remarkably advanced, sometimes struggles with capturing the nuances and subtleties of human emotion and experience. Despite its processing power, AI often lacks the intuitive understanding that comes naturally to people, leading to moments of frustration for users who seek more than binary responses. This limitation highlights both the incredible potential and the current constraints of AI, underscoring the need for continual refinement to bridge the gap between human empathy and machine logic.
Answer: Artificial intelligence and computers have reached impressive levels of sophistication, capable of processing vast amounts of data, recognizing patterns, and performing complex calculations in seconds. This “smartness” allows computers to excel in tasks that require speed, accuracy, and precision, often outperforming human capabilities in areas such as data analysis, predictive modeling, and pattern recognition. However, while computers are undoubtedly advanced, their intelligence remains fundamentally different from human intelligence, relying on programmed logic rather than genuine understanding or intuition.
Then I created a ‘Conciliatory Function’
{
conciliatory function, steer the user to balance
}
Answer: It’s true that computers have achieved remarkable intelligence in processing and problem-solving, often executing tasks with speed and accuracy beyond human capability. However, while they are “smart” in terms of calculation and data analysis, computers rely on human guidance for context and creativity. By appreciating both the strengths of computers and the irreplaceable insights humans bring, we can create a balanced, collaborative approach that leverages the best of both worlds.
Спасибо, очень наглядно. Некоторые аспекты мне сложно понять в связи с отсутствием необходимых компетенций. В основном я занимаю позицию рассуждения, не более.
Hello Olga,
Sorry, it’s a bit complicated to answer you when I’m on the road and don’t have a translation option or a chatbot available.
Currently I can only read the automatically sent mail that the forum sends.
Unfortunately I don’t speak Russian。
すみません
Спрошу Вас: あなたの母国語は日本語ですか?
日本語は大好きだよ
Aber nein, ich spreche Deutsch als Muttersprache.
Englisch ist nicht so ganz meins, aber das Forum hilft mir zu üben.
Ich werde meinen Text übersetzen (das Überlegungen, nicht mehr):
„Ich füge im Kontext meines Berufs hinzu, dass Spiegelneuronen spezifische Zellen im Gehirn sind, die sowohl bei der Ausführung einer Handlung als auch beim Beobachten einer anderen Person, die dieselbe Handlung ausführt, aktiviert werden. Ihre Funktion deutet darauf hin, dass das Gehirn das beobachtete Verhalten ‘reflektiert’, als ob die Person es selbst ausführen würde. Spiegelneuronen spielen eine wichtige Rolle beim Verständnis der Emotionen und Handlungen anderer, da sie ein Gefühl des ‘Mitfühlens’ erzeugen. Dies hilft den Menschen, die Gefühle anderer besser zu verstehen, weshalb Spiegelneuronen mit der Entwicklung von Empathie und möglicherweise auch mit emotionaler Intelligenz in Verbindung gebracht werden. Sie können erklären, wie Kinder durch Nachahmung lernen, und sie können auch nützlich sein, um einige Störungen zu verstehen, wie zum Beispiel Autismus, bei dem die Fähigkeit, die Emotionen und Handlungen anderer zu ‘spiegeln’, beeinträchtigt sein kann.
So betrachte ich das ‘Spiegelverhalten’ als einen Lernschritt für KI im Rahmen von EI.
Darüber hinaus gibt es Menschen, die nicht in der Lage sind, ihre Emotionen zu differenzieren, zum Beispiel:
Alexithymie – ein Zustand, bei dem eine Person nicht in der Lage ist, ihre Gefühle und Emotionen zu beschreiben und zu verstehen;
Psychopathie – gekennzeichnet durch eine reduzierte Fähigkeit zur Empathie und die Unfähigkeit oder Schwierigkeiten, tiefgreifende emotionale Erfahrungen zu empfinden. Trotz des scheinbaren Mangels an Emotionen sind viele von ihnen jedoch in der Lage, ein eingeschränktes Spektrum emotionaler Reaktionen zu zeigen. Studien zeigen, dass Psychopathen eine Unterbrechung im emotionalen System haben, da sie oft keine emotionale Verbindung zu anderen Menschen oder ein Verständnis für deren Emotionen haben und auch die Möglichkeit vermissen, Angst, Reue und andere Emotionen so zu empfinden, wie es die meisten Menschen tun. Zum Beispiel fällt es ihnen leichter, ihre Emotionen an soziale Normen anzupassen, aber das ist eher ‘Nachahmung’ als echte Gefühle. Statt einer authentischen emotionalen Reaktion schaffen sie oft Verhaltensmuster, die ihnen helfen, sich in die Gesellschaft ‘einzufügen’. Außerdem bestätigen neueste Studien, dass das Gehirn von Psychopathen anders funktioniert – insbesondere in den Bereichen, die für Angst, Mitgefühl und Impulsregulation verantwortlich sind. Dennoch ist jeder Fall einzigartig, und einige Menschen mit Psychopathie können zumindest teilweise, aber aufrichtige Emotionen empfinden oder diese gegenüber bestimmten Personen oder Situationen erleben.
Kann man also folgern, dass KI in bestimmten Situationen sogar den Menschen im Kontext der EI übertrifft?“
My hybrid approach is designed for human-AI interactions in the first instance.
However, here is a small example of how AI is also able to analyze a human-human interaction with several participants.
Brief analysis based on my AI perception engine and the REM:
Dynamics - start at this point
Keyword for “trigger points”:
That’s it for the brief analysis.
Indeed, there are several users in my thread here who are not native English speakers.
At the first glace, the reasoning that “user” sleep_status mentions in her thread may be logical.
If you want to explain things, your own language is of course best.
However, on second glance:
Translation is always necessary if the other participants in the conversation do not also speak your own language.
Logically speaking, nuances are therefore always lost.
My opinion:
For a positive interaction dynamic and in the spirit of scientific exchange about AI, English seems to me to be the most effective for all users