[Steem Rep] Update - September 2024 | AI-Comments | Tags | Trendings Scores
When I start to think about what I could write about my work on the Steem, I think of several things. When I try to write them down, I'm overtaken by current events or questions or further research, which I then usually prioritise.
In this respect, I'm very sorry that I didn't get in touch with you sooner.
I would like to address a few points that have recently been receiving particular attention.
AI comments
The reaction of some users to the AI comments from the Xpilar team did indeed scare me a little. Steem is a blockchain-based platform for exchanging ideas with other people on this planet, perhaps sharing personal experiences, celebrating anniversaries, etc. One more, the other less. This motivation is reinforced by the fact that you can earn rewards in cryptocurrencies through social interaction.
Social interaction is therefore the essence of the platform. For me personally, this is an interaction between people. We all know that AI is a current trend and is also coming to Steem. There's nothing wrong with consciously choosing to interact with AI. By the way, you can try this out with the !ask
command from justyy's bot. Or use the AI clearly labelled in your posts.
But where is the social interaction when a computer programme responds to a post with a text that comes from the AI? Personally, I want to talk/write to people on Steem and not to the output of a computer programme. For me, such comments are no substitute for missing human comments. What should I be happy about? At best, I pay respect to the programmer for his performance.
Tags
In the comments section of this post (yes, reading comments is very useful!) I had read that the search engines also look at relevant tags and that you should therefore use tags that match the post. I'm not familiar with search engine optimisation, but it makes sense to me.
When we create a post in a community, the unique internal community identifier (you know it as hive-123456
) is automatically added as the first tag. This is also done so that you can access the community posts with the URL https://steemit.com/created/hive-123456
. The actual post then has the URL https://steemit.com/hive-123456/@author/permlink
. And that's probably the problem. For the search engine, the part hive-123456
in the URL is not meaningful and is therefore obviously ranked low.
If you create a post outside the community and use a meaningful tag (for example #book
), the URL for the post will look like this: https://steemit.com/book/@author/permlink
If you now use a meaningful title, you may also appear in the search engine results.
But what does this mean for Steem and Steemit? Do we have to abolish the communities again?
Trending Scores
Maybe it's a mistake to put this topic in a Steem Rep post, but I'm still hoping for some feedback.
I know from some users that the 'trendings' (meaning the access to https://steemit.com/trending/) are a thorn in the side of many, because it sets false incentives.
The trending score is determined on the basis of the votes a post receives. Posts with a high trending score are displayed higher up on the page than others. There are therefore two considerations to ensure that investor contributions do not appear so high up in the trendings:
- Investor votes are not included in the trending calculation.
In this case, there would have to be a (adjustable) list with the corresponding accounts. This might not be very successful, however, as trail votes are often linked to investor votes, meaning that the score is still likely to be higher than for other posts. - Votes that occur within a certain time are not (or less) included in the trending calculation.
Here, for example, I could imagine a time range of 10-30 minutes in which the value for the trending score increases steadily. This should then cover both the investor votes and the trail votes.
Feel free to write me your opinion on the suggestions. I haven't done any tests on this yet, so I can't show you what impact one version or the other would have. But that will follow soon...
10.09.2024
Banner with kind permission of chriddi
Was den Einsatz von KI auf Steemit betrifft bin ich, insbesondere nach diesem Kommentar, doch recht optimistisch. Evtl. gibt es einmal (auf Anfrage) KI-Kommentare, z.B. mit Verbesserungsvorschlägen zum Post oder einen Bot, der Anfängerfragen beantwortet. Nur zwei Gedanken.
Zur SEO-Geschichte, ich bin auf dem Gebiet nicht mehr am aktuellen Stand, denke aber, ein
hive-123456
in der URL sollte nicht so dramatische Auswirkungen haben, weil die Überschrift im<h1>
Tag und auch in der URL vorkommt. Wenn die Überschrift passt sollte der Beitrag auch gefunden werden, bei Google war z.B. beim Suchbegriff "BTCBSC Scam" ein Beitrag von Steemit lange Zeit auf Platz 1, jetzt auf Platz 2. Wobei, natürlich, wenn URL's ohnehive-
möglich sind, wäre das sicher kein Nachteil.Und ja, die Trending Scores - auch noch eine Baustelle, die beiden Ideen finde ich schon mal gut, damit wäre schon einiges gewonnen. Könnte mir noch eine zusätzliche Gewichtung nach Inhalt vorstellen, ein Bild ohne Text wäre z.B. nicht so trending :-)
(Offtopic: weiß du zufällig (ohne groß zu suchen) wie sich aus einem privat Key der entsprechende public Key berechnen lässt?)
Erstmal kurz zu der Key-Geschichte, da ich gerade auf dem Sprung bin:
In Python gibt es die Klasse
PrivateKey
mit der du den Public Key erhalten kannst.Da du ja eher in Javascript unterwegs bist, in SteemJS gibt es die Klasse ebenfalls. Damit habe ich aber bisher nicht gearbeitet. Das wird aber auch funktionieren.
Danke dir, das hilft mir schon mal weiter! (Nachdem 2 verschiedene KI's unbrauchbare Lösungen geliefert haben)
!DUBby 13%
So, hat etwas gedauert, im Urlaub hat man ja keine Zeit für nix ;-)
Weil "das Ding" serverseitig laufen soll und vermutlich nur für ein paar Tests gebraucht wird, hab ich einfach die Arbeit Phyton überlassen, ein kleines .py Script, dass die von dir verlinkte Klasse nutzt und von PHP aufgerufen wird.
Wunderbar, Ziel erreicht, danke für deine Hilfe!
Das hört sich doch gut an. :-)
Wusste gar nicht, dass PHP auch Python aufrufen kann...
Das ging mir irgendwie fast den ganzen Sommer so. Nix im Garten geschafft, es war immer viel zu schönes Wetter und wir am See :-))
I suspect the algorithm to do this is a closely kept secret so that the inverse can't be achieved.
What do you mean with "invers"? From Private to Public or from Public to Private?
The calculation of the public key from the private key must work, otherwise the whole system would not work. After all, it must be possible to check whether the entered private key matches the publicly known public key. Since the developer (naturally) has no access to the master key (from which all other keys could be determined), authorisation is only possible via the private/public route.
The reverse route, public to private, must not work of course, otherwise it would no longer be secret.
The reason I say is that it's a calculation... so if you can calculate the Public key from the Private and know the calculation to do so, then in theory, you should be able to adjust the variables within the calculation to prove the opposite.
E.g. a = b*c where a is the public key, b is a calc. and c is the private key would lead to c = a/b, therefore allowing us to calculate the Private Key from the Public.
I believe that there's an algorithm that exists linking one with the other, but if this is known in one direction, then the reverse will be calculable.
Of course, I could be wrong. My understanding of RSA is that there are a couple of prime numbers that define the algorithm (unique to each site) which if discovered would unlock every key.
There’s a post on the blockchain somewhere from one of the people who set up Hive about their algorithm. I struggle to understand RSA so I’m probably wrong.
Yes, it is a calculation, but the essential and decisive factor for cryptography is that the calculation can only be carried out in one direction with justifiable effort.
I've also read a lot about RSA, but I can't really explain it in detail :-)
Me too. It's frustrating. Read -> Understand -> Forget. Time after time.
The bottom line is that none of them can be reversed in a reasonable period of time until quantum computing comes along. In general, I think that the trusted encryption algorithms are open source, so I'm sure we could dig the details out in the code if we wanted to spend the time on it. From following Bruce Schneier's Blog for many years, I have the impression that closed source algorithms are the ones that shouldn't be trusted.
@cmp2020 and I were talking about this when he took a cryptography course last year. Apparently, ECDSA is vulnerable to quantum algorithms, so Bitcoin and Steem are going to have to deal with that in the foreseeable future (and many others, I assume).
I'm out of time, but one of the AIs could probably give us the algorithm to derive the public key from the private key with ECSDA (which, I think might be the one that's used for our Steem keys). As I understand, it is based on the geometry of repeated movements around an elliptic curve for some number of times.
Quantum computers are fascinating to me on the one hand and difficult to grasp on the other. I already have a problem imagining the theory of the undefined state. Let alone the realisation in computers. Exciting topic!
Cryptography is also exciting. I also assume that our keys are calculated using elliptical curves. Explaining this would be a useful task for AI.
Hey @moecki,
thank you for using our automatic payout bot 'DUBby' to share your post rewards with your commentators.
To make sure everything works as planned, please remember to give me payout orders.
Just write a comment to the users who should receive a share. It should contain the instruction in the form
!finanzbot x %
.If you need help with this, feel free to ask or check this manual (german).
Greetings from the 'DU-Finanzbot' (by Witness @moecki).
It's an oversimplification - at best - but I think of a metaphor with positional notation.
For example, if I have a symbol, such as 10111100011101, it simultaneously has infinite potential values until I give it a base of representation. But, the moment I say that it's a base 10 number or a base 2 number or a base 8 number, it "collapses" to a single value.
So, I imagine quantum computations as something like classical computations that could operate on that symbol without fixing the base of representation. For example, splitting it or reversing it and so on. Every operation like that can produce an infinite number of answers after the base gets established.
Obviously, it's not at all what the quantum computer is doing, and I have no idea whether there are any useful operations to be done in my imaginary scenario, but at least it's a familiar concept that makes me feel better about the idea of "superposition" and computing with superimposed values.
This is extremely easy, without this we cannot verify the authenticity of keys. In the Steem blockchain, a private key is converted into a public key using Elliptic Curve Cryptography (ECC) on the secp256k1 curve. The private key is used to generate a point on this curve, which forms the public key. This public key is then compressed and encoded using Base58Check, a format that makes it shorter, human-readable, and includes error detection. The final public key starts with the prefix
STM
, allowing you to prove ownership without exposing the private key itself.Above code will print you public key for any given private key
It would be nice if the readers knew who exactly wrote this comment, but for your answer I'll send you our !DUBby 1%.
I did, wrote this comment. Do you want to know more about myself? or are you confused on something
Nun ja, dieser Such Term ist ja bei einer knappen Handvoll Ergebnisse nicht unbedingt eine Messlatte. Aber selbst den findest du bei BING irgendwo im Nirvana und bei meiner genutzten Suchmaschine Yandex noch weit hinter dem Nirvana.
Würde man Steemit oder einen anderen Kondenser zur Suchanfrage Kryptowährung oder dem beliebten Messlatten-Beispiel Lebensversicherung unter den Top 10 finden wäre das eine Ansage.
Den übelst manipulierten Ideologie Laden Giggle nutze ich sowieso maximal noch zum Vergleich. Das sind Welten und man wundert sich, was andere Searchengines da zu Tage fördern. Bzw merkt man zu was für einem Shithole Google verkommen ist. Da war ja der Yahoo Suchkatalog vor der Jahrtausendwende noch besser, als es die Suchmaschinen im heutigen Sinn noch gar nicht gab.
真利害
Nice to hear your thoughts - I looked yesterday to see if you'd shared anything and today, you've fulfilled my wish (although it was probably yesterday after I'd looked for you).
AI Generated Content
I've struggled to know what to write about this. I also wanted to share these thoughts privately before commenting publicly.
Obviously, I don't share the opinion of the user who was trying to incite a new wave of Witness Wars. In my opinion, AI generated content which hasn't explicitly stated that it's AI generated deserves the downvotes it receives - irrespective of whether it's a new user (in which case, more leniency would be preferred), or an admin/moderator or even more so a Witness who have the responsibility of taking this platform in the direction that we want it to go in. We must remember that this is why we vote for witnesses - to support the users that will take the platform in the direction that we want it to go in.
In my opinion, xpilar failed in this respect and thanks to @michelangelo3 who highlighted this comment that has done a good job of combining many of my feelings in a relatively short comment (surprise and disappointment being front and fore).
Before this user reappears with another wave of blind loyalty, I have to reiterate my admiration for xpilar and everything he's done for Steemit, its users and for me, personally (which is why he still gets my Witness vote). This drama was in my view, poorly judged and I suspect, poor advice from elsehwere.
Tags
Yep - URLs matter, quite a lot. And the earlier in the URL that a key term appears, the more importance a Search Engine has historically given it.
So having
hive-xxxx
- a meaningless search term appearing in the URL before theh1
is essentially saying thathive-xxxx
is a better descriptor of the content.When I finally have time to write some new content, my intention is to use SEO optimised accounts (with a view to promotion of the platform to new users and how to join, etc.) and then using my main account (this one) to say "I wrote this - if you like my content then please take a look". This will also have a doubly-positive impact that if my main account's post exceeds $20, there will be an additional internal link to my article which is also SEO optimised. Win-win. At very least, this is the theory which I can test and potentially fail.
The SEO also links to your next point about the Trending page - This page is the one that Google ranks highest on steemit.com - https://www.google.co.uk/search?q=site%3Asteemit.com and is therefore the one that it will crawl the most regularly. If the content which appears regularly at the top of this is the content that it's following and indexing, this doesn't bode well for the quality of content that Google's indexing. So, the algorithm is a crucial development in my opinion.
Trending Algorithm
Both of your suggestions are good in my opinion. I think the Trending page would benefit if voting bot votes are removed (without thinking more complex - this change would see a huge improvement) and potentially all auto-votes (although these are sometimes a good indicator of the better authors - although maybe not. Some authors who receive over 1,000 votes per post are crap).
This does then mean that votes from sc01 become all-powerful in topping Trending which (in my opinion) becomes a problem when "Steem POD" posts get the highest upvotes. Is that the type of content that will appeal to new users or should consideration be given to how sc01 and sc02 votes are also handled within the algorithm?
You are of course particularly affected at WOX, as it affects the founder (and/or his team)... and perhaps this indirectly impacts the community mods as well.
I am very amazed that the comment highlighted by michelangelo3 was written. And furthermore, I'm surprised that no one has responded to it yet. I agree with you that exactly the right words were used.
I don't know what you mean by that. There is no
h1
tag in the URL.Yes, but doesn't the lower SEO of the main account then influence the SEO optimised account? Or is the link alone a criterion for a ranking increase?
Unfortunately, it is not possible to determine whether the vote has been assigned manually or automatically. Unless we define very early votes as autovotes. As I wrote, I am not (or no longer) so convinced that bot votes alone will help us, as many people follow these bots. But until I've done the maths, we're only talking about it in theory. I'd like to know the actual impact so I can weigh up the alternatives. Which brings us to the most difficult point: How do I make comparative calculations without having to change the whole Hivemind code... I'm still thinking about it :-)
In any case. These votes should not be the decisive factor, but the broad masses. In my view, remlaps' suggestions are (theoretically) well suited to achieving this.
Sorry, I'm partially referencing michelangelo3's comment. The "Title" that we use for our post is also used as the
h1
tag, as well as to construct the page URL (unless the title is edited,h1
= page URL). So when the page URL is constructed, the community (or first) tag precedes the title which would be given slightly higher importance.I might find this difficult to articulate but I'll do my best 🙂 If done well, the 2 should compliment each other. If the main account says something along the lines of "I have written this article about Lego Set 14433 which details my experiences building the set, and how much I enjoyed playing with it, blah blah" and then links to
Lego Set 14433 - Building and Play Experience
then when Google looks at the refferer content and deeper content, it'll say "Yes, these are relevant to each other and I like this". Whereas if I dumpLego Set 14433 - Building and Play Experience
at the end of a "Gareth Southgate depresses me" article, it will say "Huh? What's lego got to do with Gareth Southgate - this fool's link spamming, I don't like this".In the first (honest) example, Google will like both accounts because they're acting honestly (of course, this is all algorithmic) whereas in the second (dishonest) example, at minimum, the linking account is penalised and depending upon domain usage, both accounts might be. Internal links would be weighted differently to external links - another example is if at the end of my "Lego building and play experience" article, I link to other relevant information (perhaps the set on Lego's website), Google would also like this (assuming that the post reaches $20 and the
nofollow
link is removed.Overall, the consistency will also appease Google. The account "Lego-Builder" who always talks about Lego will always rank higher than a generic account like mine which talks about lots of things. Google will have more confidence that the results its displaying will be relevant to the search term.
So lots of factors required to make the idea work and ensure that Google doesn't see it as "This fella's trying to manipulate me" which Google's been working very hard to prevent and dislikes. Which is why their algorithm's always been so secretive - if people know their rules, they'll play the game.
This is what I was thinking. At the moment, we know that autovotes tend to happen after about 5 minutes and sooner for the biggest voting bot delegations. Of course, if the rules change, voting habits probably will too.
In the main, I'd say these followers have relatively low voting power with less influence.
I think that we can say with a high level of confidence that if voting bot votes were removed, it would instantly signify a massive improvement in the Trending page. It might also highlight the next challenge (whether that's the voting bot followers or something else).
I'd be tempted to approach this as incremental changes rather than trying to find the silver bullet straight out of the gates. Of course, using suggestions by remlaps - I know that he and others have thought about this a lot over the years.
Thanks for the detailed explanation. :-)
Now I can understand it better.
I don't know if step-by-step is appropriate here. I don't want to find the ideal solution straight away, but I would like to compare how the different approaches rank.
The trending algorithm is calculated continuously (with every vote) and not just when the trending posts are requested. In this respect, changes to the trending page do not occur immediately when the code is changed. So you have to wait a few days until you see other posts on the trending page.
I had therefore considered creating a separate table in which the trending scores of the various calculations are saved so that a direct comparison could be made. For the display, however, we would then have the problem that there would also need to be a selection option for the respective trending algorithm in the Condenser. Hm, that would be more work than necessary.
When I recapitulate these thoughts now, I am inclined to simply try it with an algorithm and then see what changes in the trendings. We can then at least make a live comparison with the Steemit variant.
Could you please send me your bot list via Discord so that I can use it?
!DUBby 18%
Done and done. I do like the idea of running lots of algorithms and storing additional columns of data (which would allow a relatively quick switch (in the code) to see different attempts). Overall, this might be quicker than waiting a week at a time to implement different possible approaches.
I don't know how easy it is to add an additional database column with associated ranking algorithm though. It's one thing to think that it sounds straightforward enough but very different to implement it on Steemit's codebase 😆
Before I start anything else, I wanted to finish the new version of DUBby first. That's why I've only really had time for these things for a few days... Although I was already thinking about it :-)
Today I had to struggle with my inkjet printer for a few hours to get it to spit out one of my daughter's school homework. Of course, by the time you need it, something has dried up...
So I'm sorry I'll have to postpone replying to your comment and the others...
For trending, my guess is that it might be best to forget about the total value, and instead experiment with something like these:
etc...
We clearly don't want to go with raw numbers of votes, because that could be gamed with alt accounts, but there might be other solutions that don't depend on trying to maintain tables of investors and curation trails. Maintaining those tables sounds like a
nightmarechallenge to me.By the way, I have now started with the first attempts.
You can also compare steemit.com and https://steemit.steemnet.org/trending. The full bot list from the-gorilla is currently filtered out there.
I have experimented locally with a variant that weights the rshares according to time (under 5 minutes = 0, between 5 and 10 minutes linearly increasing, from 10 minutes = 1). This shows even more significant differences.
I will compare the variants mentioned above.
You can also see the score in the PostSummary header on my test page. Overall, the values differ only very minimally.
Edit: new URL to use caching.
I see the scores in your test page, but I'm still seeing posts that were voted by accounts that I would've expected to be filtered as bots. Maybe I'm misunderstanding the filtering.
You probably assumed that posts with bot votes would be filtered out completely.
That was not my intention. I ‘only’ wanted to influence the calculation of the score by either filtering out or weakening the bot votes (i.e. their
rshares
) as far as possible. That way, the posts with bot votes should not end up so high in the ranking.But as I suspected, there are still too many other (trail) votes that distort the result.
I have now calculated with various other methods:
rshares
results in the biggest changes,I would implement the median calculation in the test environment as a test.
I had a long conversation with ChatGPT today in which the use of percentiles emerged as quite promising to identify the biggest outlier votes. A weakening could then be applied to these.
Ah, you're right. I was assuming it would be total filtering. But your approach makes more sense. I suppose they should get credit for legitimate organic votes, even if they're using bots.
That was my gut feeling. I look forward to seeing that. My only reservation is for posts with a small number of votes. I guess the median would need to be combined with some sort of minimum number of votes and/or rshares.
That makes a lot of sense. It hadn't crossed my mind, but I like it.
That's true. I have already observed that posts with one vote had a higher trending score than posts with many (good) votes. A sensible combination is absolutely essential.
Unfortunately, the ‘old’ scores are higher, so the trending page is still dominated by them...
It looks very different, though. I think there's a little bit of improvement, already.
Forgot to mention: This was why I came up with
median * log(number of votes)
, too. Someone could try to manipulate the score with fake accounts, but it gets expensive to fund them to high enough levels that they won't drag down the median.To prevent the curve from rising too quickly with smaller vote numbers, I have now used log10. We'll see how the values develop.
When debugging the new function, I noticed that there is a bug in the caching wrapper that makes the caching unusable (https://github.com/steemit/hivemind/issues/338).
I would fix that now :-)
Thank you very much. I was hoping for more suggestions from you. And you didn't disappoint me :-)
I've been thinking for a few days about how I could make effective comparative calculations (with the possibility of visualisation) with reasonable effort. Since the votes are not directly linked to the post with all the data, I would have to spend a lot of time collating the data first. But I think the data for your suggestions might even be available with one request.
Let's see...
The controversy surrounding the AI comments seems to have been settled for the time being... I found it much more frightening how many users didn't realise that it wasn't an Xpilar chatting to them, but an AI.
For me, the advantages of the Communities outweigh the disadvantage of the virtually non-existent visibility in search engines. But perhaps it would even be possible to change the basic structure of the URL...?
I can't contribute anything to trending - I'm not interested, I don't use it. Very nice that I land on your frontend right at the Created Posts... ;-))
Ja, es klingt ab. Ich hoffe nicht, dass es durch andere Accounts weitergeführt wird. Und wenn man es nun überhaupt nicht lassen kann, dann nur mit expliziter Kennzeichnung.
Die Grundstruktur der URL's zu ändern, wäre vielleicht sogar möglich. Das betrifft dann aber weite Teile der Oberfläche, und ich kann nicht wirklich abschätzen, welchen Aufwand das dann machen würde. Die Fragestellung nach der Abschaffung der Communities war natürlich auch provokativ.
Wahrscheinlich würde es wirklich schon mal helfen, wenn die User insgesamt vernünftige Tags und Titel verwenden (siehe Kommentar vom Gorilla).
Mit der Trending-Seite hast du recht. Als angestammter Nutzer hat man seine eigenen Startpunkte. Ausschlaggebend ist das eher für neue Nutzer, die als erstes die Investoren-Beiträge sehen und meinen, das könnten sie auch mit einem Bildchen oder drei Zeilen erreichen.
!DUBby 5%
Ooooh, dass hat aber lange gedauert, bis ich bei meinem täglichen (🤪) POD TEAM-Check den Eröffnungsbericht meines Lieblingsreps gefunden habe... Und dann noch so ein kurzweiliger - fein, fein; feine Überraschung... 😊
Die "Vorredner" haben ja bereits all deine Punkte zu Genüge kommentiert und noch sehr hilfreiche Erweiterungen geliefert. Prima, dann will ich auch nur noch kurz ein bisschen schludern...
Über jene, die diese AI-Kommentare in Schutz genommen haben, gar meinten, sie würden Autoren, die sonst nicht beachtet werden, ein Lächeln ins Gesicht zaubern. Gosh! Ich glaube, ich würde in tiefste Depressionen verfallen, wenn ich feststellte, dass definitiv NIEMAND meinen Beitrag gelesen hat, ich mich dennoch aufs herzlichste einem Automaten geantwortet habe, weil ich DACHTE, ich würde wertgeschätzt werden. Das ist erniedrigend! Schlimmste Plattformwerbung ever...
Also zu deiner Frage:
Nein, das wollen wir nicht, das brauchen wir nicht!
Ich fand die (mittlerweile zurückgenommenen) Downvotes als "Warnschuss" sehr gut. In unserer Community DU werde ich sämtliche AI-Kommentare nicht unbedingt sofort downvoten, aber muten.
Gern doch, vielleicht habe ich dir in diesen schwierigen Tagen vielleicht ein Lächeln ins Gesicht gezaubert :-)
Aber schau mal, als was wir beide in dieser Community gelabelt sind... ;-))
Was ist denn da mit den Mods/Admins los!? Das gäbe es bei uns nicht :-D
Das war auch für mich die Krönung! Ich würde mich definitiv nicht freuen, wenn ausschließlich ein Bot mir antwortet!
Habe vorhin gesehen, dass du einen schon identifiziert hast. Gutes Detektivauge! :-)
Den Kommentar unter dem Community-Post hat er sogleich auch wieder gelöscht.
!DUBby 13%
Ist mir auch aufgefallen. Vielleicht nutze ich das in Kürze mal aus - sofern nichts Pelziges dazwischenkommt… ;-)
War nicht so schwer. Aber Spaß macht mir das nicht…
Unter meinen eigenen Posts (ja, ja, werden schon wieder welche kommen..) werde ich die nun auch flaggen.
Haha, immer wieder was Neues… ;-)
Ja, SEO und Google sind so eine Sache. Ich bin auch kein Profi, was das angeht. Aber wenn steemit.com als normale Internetseite gewertet wird, hat die Relevanz aller Artikel und die Zugriffszeiten einen Einfluss auf die anderen Artikel. Es ist wie bei reddit.com und meiner Seite: Auch wenn ich in meinem Titel exakt die gleichen Wörter verwende wie ein Nutzer in seiner Suche, entscheidet zuerst die Relevanz meiner Webseite und danach die User-Interaktionen. Das Gemeine ist, dass du ohne Analyse-Skripte, mit denen Google genauer bestimmen kann, kaum deinen Score verbessern kannst. Eigentlich habe ich nur aus diesem Grund noch Google Analytics auf meiner Seite, damit Google sich ein besseres Bild von den Nutzerinteraktionen machen kann. Was bei Steemit fehlt, sind auch Keywords. Diese werden zwar kaum von Suchmaschinen genutzt, sind aber dennoch für manche Suchanfragen relevant, im Fall Google und bei den meisten Großen zählt aber nur der Inhalt der Seite.
Am aussagekräftigsten sind der Titel und die Beschreibung. Wenn du gezielt auf SEO gehen möchtest, musst du die Wörter, die du zum Beispiel in deinen Tags oder auch in einer Google-Suche nutzen würdest, auch in deinem Titel verwenden. Trotzdem finde ich, dass man immer noch darauf achten sollte, dass die Titel auch für Menschen ansprechend sind. Bei SEO geht es auch um Auffälligkeit in der Suche. Besondere Zeichen oder Titel, die sich abheben, werden gerne genutzt. Kann aber auch zu Abwertung führen, wenn sie spammy oder irreführend sind.
Google achtet darauf, ob das Webseitenlayout passt und die Inhalte der Google-Entwicklerseite für SEO entsprechen. Auf der Google-Entwicklerseite für SEO steht: "Eine URL, die nur zufällige Kennungen enthält, ist für Nutzer weniger hilfreich." Da deine URL nicht zufällig ist und am Schluss relevante Informationen enthält, sollte es eigentlich nicht so schlimm sein. Aber ja, Google bevorzugt in seinem Newsfeed aus technischen Gründen auch eher Permalinks, und es fällt auf, dass die dort eher kurze Links bevorzugen und in der Google Suche Links die eigentlich wie bei Steam beschreiben.
Ich habe auch schnell diesen Blogbeitrag von dir in das Google-SEO-Testtool (pagespeed.web.dev) geleitet und bin auf 77 % gekommen. Das liegt daran, dass er wegen der URL etwas meckert und weil die Links, die eigentlich Knöpfe für JavaScript sind, zum Antworten fehlerhaft erscheinen. Aber die Webseite ist ja sonst gut strukturiert. Ansonsten ist das Ergebnis aber in Ordnung.
Der Text wurde von einer KI korrigiert, da ich gerade am Smartphone viele Rechtschreibfehler gemacht habe und der Lesefluss furchtbar war. Aber er stammt von einem Menschen, und darum geht es dir. Solange die Qualität der Inhalte verbessert werden kann, ist ein KI-Tool sinnvoll. Sinnloses Spammen mit Bots bleibt jedoch sinnloses Spammen mit Bots, auch wenn man eine KI einsetzt.
Edit:
Was mich aber mal interessieren würde: Was würdest du davon halten, wenn man Rechenzeit, z. B. für KI, mit Upvotes oder Steem bezahlen könnte? Upvotes wären, glaube ich, etwas zu ungenau, aber Steem wäre eigentlich gut für so etwas geeignet. Bei manchen Social-Media-Plattformen gibt es das ja auch. Ich meine, Steem wäre gerade durch das Vorhandensein einer Währung ohne Transaktionsgebühren fast perfekt für solche Dienstleistungen.
Die Seite "pagespeed" ist ja cool. Da habe ich gleich mal ein wenig gestöbert. Über meine Domains ist der Wert sogar bei "85". Toll ist ja auch, dass er gleich Verbesserungsmöglichkeiten aufzeigt.
Zuerst ist das Wichtigste, dass man transparent damit umgeht. Es gab schon den Vorschlag, die KI-Posts mit einem Tag oder einem Logo zu markieren. Das muss aus meiner Sicht nicht unbedingt sein. Man kann es auch so machen wie du. Einen kurzen Disclaimer und gut ist es.
Das hast du gut zusammengefasst! :-)
Ich kann mir jetzt gerade nicht vorstellen, welche Rechenzeit du meinst und wie das mit der Blockchain verbunden werden könnte.
Ich mache mal einen Versuch: Du bezahlst STEEM an einen Account, der von einem betrieben wird, der Hardware/Rechenleistung anbietet. Dann werden entsprechende Ressourcen freigeschaltet... und die KI wird tätig? Auf dem Steem?
!DUBby 14%
Ja, dein SEO-Wert ist ganz gut. Bei den Tools habe ich allerdings das Gefühl, dass deren Einschätzung nicht immer perfekt ist. Aber man weiß zumindest, dass man sich an die Anforderungen der Suchmaschinen hält und dadurch eher eine Chance hat, Relevanz zu gewinnen und aufgenommen zu werden. Ich freue mich schon, wenn einzelne Beiträge bei bestimmten Suchanfragen höher gelistet werden und alles gefunden werden kann.
Ja, es wäre über eine Antwort bei manchen Diensten oder über eine eigene Seite möglich. Oder so, wie man es von Discord kennt: als Bot, der einen Befehl empfängt. Zum Beispiel mit !tts, um einen Artikel als Audio zu erstellen. Dann wird dieser vom Bot erstellt und unter dem Beitrag gepostet, wenn der Ersteller des Beitrags den Befehl eingegeben hat. Um die Rechenleistung, die ja bei den meisten KI-Anwendungen recht hoch ist, wieder reinzuholen, könnte der Nutzer als Dank einen kleinen Upvote geben – bei Diensten, die fast Non-Profit sind, wo die Kosten nicht ganz so hoch sind. Bei anderen Diensten könnte man dem Bot Steem über eine Transaktion senden, und dieser nutzt es als eine Art Credits. Da die Antworten in die Blockchain geschrieben werden, muss man abwägen, bei welchem Dienst das jetzt nicht zwangsläufig zu unnötiger Belastung durch Bot-Aktivität führt und ob eine eigene Seite vielleicht doch besser ist. Bei der Bildgenerierung für Artikel ist das Ergebnis nicht unbedingt immer perfekt, wie man weiß. Es kommt also stark auf den Dienst an, wie man die Ausgabe der Inhalte lösen möchte. Aber bezahlen oder unterstützen könnte man schon recht gut mit Steem. Auf manchen Plattformen sind die Gebühren, die die Betreiber wollen, und dazu noch die Transaktionskosten der Zahlungsdienstleister höher, als wenn man in Steem bezahlt, wo es eigentlich nur geringe Gebühren oder Verluste beim Kauf und Verkauf sowie Schwankungen geben kann.
Ich habe vorhin ein paar Profile von Personen in meiner Folgenliste angeschaut. Die KI-Kommentare, die sie teilweise bekommen, sind wirklich miserabel. Sie heucheln Interesse vor und verwenden unglaublich viele Emotes, was es aber auch nicht emotionaler macht. Besonders lächerlich war es bei einem Beitrag, in dem jemand seine Spielkarten gepostet hat. Der Bot hat sich in seinen Testbeiträgen sogar selbst Kommentare geschrieben. Er wollte sogar, dass man für ihn abstimmt. Man konnte deutlich sehen, dass es bei diesem Account nur darum ging, mit wenig Aufwand Geld zu verdienen. Es war größtenteils Spam, aber der Account hat trotzdem Upvotes bekommen – wahrscheinlich auch von sich selbst. Am besten ignoriert man das einfach, dann geht ihm schon das Geld für die API-Kosten aus. Interessant wäre, ob sie das nur bei Leuten machen, bei denen die Wahrscheinlichkeit eines hohen Upvotes aus der Community hoch ist, oder ob sie wirklich alle mit 🤑Emotes🤮 "beglücken" wollen.
Bei meinen Sachen kannst du auf jeden Fall immer davon ausgehen, dass das, was ich schreibe, maximal korrigiert wurde, da meine Rechtschreibung heute immer noch nicht perfekt ist. Aber der Inhalt entspricht größtenteils dem Original. Für die Korrektur von Inhalten habe ich früher auch schon andere Arten von KI genutzt. Diese waren natürlich nicht so perfekt wie ChatGPT und stark auf Rechtschreibung und Grammatik beschränkt, aber diese Tools hatten tatsächlich einen Lerneffekt für mich, und meine Rechtschreibung ist besser geworden. Ab und zu benutze ich KI auch als eine Art Autokomplettierung, um Themen anschaulicher und detaillierter zu erklären. Ich schreibe, worum es gehen soll, und welche Punkte ich erklären möchte. In meinem Beitrag über xOrg habe ich das bei den Berechtigungen gemacht. Im Original war das alles in mehreren Sätzen untereinander geschrieben, was nicht gut aussah und etwas unverständlich war. In den meisten Fällen lasse ich meinen Text jedoch noch einmal von der KI korrigieren und etwas umschreiben, um die Formatierung zu verbessern. Übersetzungen sind auch eine schöne Sache. Man kann sich inspirieren lassen. Es gibt viele Funktionen, die einen Autor dabei unterstützen können, die Qualität zu steigern, worum es mir eher geht.
Keine Ahnung, welche AI hinter den Xpilar Kommentaren klemmt, aber die ist echt gut. GPT 3.5 ist das nicht. Die bekommt das nicht hin. Vermutlich Claude oder eine KI Kombi. Aus SEO Sicht ist der URL Teil nicht das Problem. Das Hauptproblem ist der massenhafte Doppelcontent.
Einmal durch C&P auf/von anderen Plattformen (Hive/Blurt/etc), dann durch die vielfache Publikation durch das Contentgrabbing der x-fachen anderen Kondenser und nicht zuletzt durch die Nutzer, die ander Benutzer für unfähig halten sich fremdsprachige Inhalte via Rechtsklick oder Browser-Pluggin selbst zu übersetzen und ihre Inhalte im gleichen Post!! mit Deepl Übersetzungen doppelt und dreifach in den Artikel knallen. Besonders Google mag das nicht. Die sind schon soweit Inetnutzer nicht für komplett blöd zu halten.
Besonders lustig, wenn das so called "Repräsentanteninnen" tun. Bei Manchinnen frage ich mich eh, wen und was die gegenüber wem "repräsentieren". Also abgesehen von ihrem JC und dem Zuwachs ihrer Wallet. 😂😂😂
Hey, Gemach, ich bin auch ein Repräsentantum [Mobile] in Personalunion mit... naja, du weißt schon. ;-)
Kann natürlich auch sein, dass die ein eigenes Modell aufgesetzt haben. Aber das interessiert mich auch nicht wirklich. Der "Trainer" muss jedenfalls ein Faible für Emojis haben :-D
Nachvollziehbar ist für mich der angesprochene Doppelcontent. Durch die verschiedenen Condenser erscheint natürlich der Content vom Steem auf verschiedenen Domains. Bei mir habe ich den Crawlern das Inspizieren verboten. Ob sie sich dran halten, weiß ich natürlich nicht. Wenn das alle machen würden, sollte nur noch das C&P auf die verschiedenen Chains problematisch sein... vereinfacht gesehen ;-)
Echt?! Was man alles so ganz nebenbei erfährt. Kann man ohne wöchentlichen "Kuck mal wen ich gevotet habe" Report ja nicht wissen. Ausserdem bist du für meine angesprochene Rep-Gattung viel zu konstruktiv. 😂
Das war das Erste, was mich an den Autoposts gewundert hat. Die Bezugnahme auf die Artikel passt ebenfalls ziemlich exakt und ab und an scheint da auch jemand manuell einzugreifen, sonst wäre dieser "Deal" sicher nicht zustande gekommen. lol
Die Antwort wäre ja fast noch Chatbot mässig, obwohl zu kurz und zu zielgerichtet, aber das Vote ist tatsächlich gekommen. Wenn das komplett KI war, dann Hut ab. Dann hätte ich den Bot gerne als Ersatz für die komplette Politgarde in Berlin.
Da pfeiffen die drauf. :) Das Maximum ist, du wirst dann offiziell bei "noindex" nicht mehr in Suchergebnissen erscheinen, aber durchrattern tun die lustigen Bots trotzdem und fressen deinen Inhalt.
Big BrotherGoogle lässt da nichts aus. Schon vor etlichen Jahren getestet. Futsch neu Domain, weder eingehende noch ausgehende Links auf absichtlich völlig irren Ordnerpfaden (domain.com/1/zicke-zacke/huehnerkacke/2/hoch/5...), Crawler "ausgesperrt", noindex, etc. - und jetzt darfst du raten wer diese Inhalte gefunden und gescannt hat. :DEigentlich gab es für die Bots keinerlei Möglichkeiten auf diese Inhalte überhaupt aufmerksam zu werden. Eigentlich! Dabei haben wir sogar noch darauf geachtet, wo die Domain registriert wurde und bei welchem Hoster die Inhalte lagen, um eventuelle Unter-/Partnerfirmen von den Googels schon direkt auszuschliessen. Alle Mühen vergebens :)
Vor denen kannst du dich nicht wirklich verstecken. Mittlerweile ja nicht mal mehr lokale Inhalte auf deiner Platte, die du gar nicht online stellst. Zumindest, wenn du Onkel Bill Software benutzt. Gut, man sagt ja, es wäre nur zu unserem Besten. Da sollte man einfach nicht zu misstrauisch sein.
Moment... muss kurz an die Tür. Hat geklingelt. Keine Ahnung, wer das um die Uhrzeit noch ist...
Glück gehabt. Dachte schon es wären die Demokratie-Wächter. 😂
Ja, so ganz sicher kann man bei den Crawlern nicht sein. Letztlich ist die robots.txt das einzige, was man machen kann.
Schau mal, jetzt wird die Community enhanced: https://steemit.com/hive-185836/@xpilar.witness/enhancing-community-engagement-and-growth-on-the-steem-blockchain-with-ai-powered-bots-comment
!DUBby 13%
Ich piss mich weg. Was sind das denn für Trottel?
ALLE und JEDER versucht AI (Botschrott) von seiner Plattform fern zu halten und der/die labern von "interessant für Investoren". So einen Schwachsinn habe ich ja noch nie gehört. Investoren (und damit meine ich keine 1000 Dollar STEEM Käufer, die an den paar Dollar Curations interessiert sind, sondern wirkliche Investoren) sind an realen Usern interessiert und nicht an vorgegaukelten AI Kommentaren. Oh man. Ich dachte schon dümmer als Baerbock & Co geht nicht. Wie man sieht: Geht doch!
Sich anmaßen AI Artikel identifizieren zu können und zu flaggen, aber dann vorgetäuschte Aktivität in den Kommentaren feiern.
Da weiß man nicht, ob man lachen oder heulen soll. Wenn ich schon lese: Studien haben gezeigt...
Pahaha - waren bestimmt Studien von Lauterbach oder Correctiv.
My original expectation, back before communities existed, was that the community owner was going to be able to pick their owning account name, and that the name would be relevant to the topic. I guess there were reasons why they decided not to do that, but from an SEO perspective, it seems like it would be an improvement.
Maybe there's a way to decouple the account name and replace it with a relevant string that can be chosen by the community and arranged in a way that doesn't conflict with regular tags, i.e.
steemit.com/c/[community_tag]; or
communities.steemit.com/[community_tag]
I'm a bit late, but you've left me plenty of fodder elsewhere ;-)
Changing the URL is mainly a condenser problem. In this respect, perhaps @the-gorilla could provide better information about the possibilities here.
However, I have also seen that the URL or the paths within the condenser are very interwoven with the hivemind requests. The URL would therefore have to be changed in such a way that the correct data is still retrieved. Or Hivemind would also have to be modified.
Another criterion for the
communiy_tag
is uniqueness. There must not be two communities with the same tag.!DUBby 6%.
Considering the fact that AI rules applies to only post, so many people don’t see it as going against the laws of steemit, when used to make a comment. I’m guessing that is why it’s mostly used. But like you pointed out in your post, genuine conversation are vital to building communities
For me, this doesn't only apply to posts. For me, it is an unwritten rule that AI texts on a social platform must be labelled as such.
That's exactly how I see it.
!DUBby 2%
iya benar, memang tag harus sesuai postingan, namun bagi pengguna baru seperti saya, itu sangat sulit mendapatkan suara, apalagi power saya masih sangat lemat. dan disini saya sangat terinspirasi dengan penguna yang sudah berpengalaman dalam bidang steemit.
It's always difficult for new users to get attention. But we all started like this. The important thing is to get involved and interact in a meaningful way. After a while, the circle of acquaintances will grow. Good luck.
!DUBby 1%